1. Trong hệ thống bộ nhớ phân cấp, bộ nhớ nào có tốc độ truy cập nhanh nhất và chi phí trên mỗi bit cao nhất?
A. Đĩa cứng (HDD)
B. Bộ nhớ chính (RAM)
C. Bộ nhớ cache
D. Bộ nhớ thứ cấp (SSD)
2. Kiến trúc CISC (Complex Instruction Set Computer) khác biệt với RISC (Reduced Instruction Set Computer) chủ yếu ở đặc điểm nào?
A. Tốc độ xung nhịp cao hơn
B. Số lượng lệnh ít hơn
C. Số lượng lệnh phức tạp và đa dạng hơn
D. Sử dụng pipeline sâu hơn
3. Bộ nhớ cache hoạt động dựa trên nguyên tắc nào để tăng tốc độ truy cập bộ nhớ?
A. Nguyên tắc lưu trữ ngẫu nhiên
B. Nguyên tắc cục bộ (locality)
C. Nguyên tắc nén dữ liệu
D. Nguyên tắc mã hóa dữ liệu
4. Ngắt (interrupt) trong kiến trúc máy tính được sử dụng để làm gì?
A. Tăng tốc độ xử lý của CPU
B. Chuyển dữ liệu giữa bộ nhớ và CPU
C. Xử lý các sự kiện bất đồng bộ từ phần cứng hoặc phần mềm
D. Kiểm soát luồng thực thi của chương trình
5. Công nghệ ảo hóa (virtualization) trong kiến trúc máy tính cho phép điều gì?
A. Tăng tốc độ xử lý của CPU vật lý
B. Chạy đồng thời nhiều hệ điều hành và ứng dụng trên một phần cứng vật lý duy nhất
C. Giảm kích thước vật lý của máy tính
D. Tăng độ bền của phần cứng
6. Trong kiến trúc hệ thống nhúng, điều gì thường là yếu tố thiết kế quan trọng nhất so với máy tính đa năng?
A. Hiệu năng xử lý cao nhất
B. Tiêu thụ điện năng thấp, kích thước nhỏ, chi phí thấp
C. Dung lượng bộ nhớ lớn nhất
D. Khả năng mở rộng linh hoạt
7. Phương pháp 'branch prediction' (dự đoán rẽ nhánh) được sử dụng trong CPU để làm gì?
A. Tăng tốc độ truy cập bộ nhớ
B. Giảm tiêu thụ điện năng
C. Cải thiện hiệu suất pipelining bằng cách giảm thiểu 'pipeline stall' do các lệnh rẽ nhánh
D. Phát hiện và sửa lỗi trong lệnh
8. Trong ngữ cảnh bộ nhớ ảo, 'page fault' xảy ra khi nào?
A. Khi bộ nhớ vật lý đầy
B. Khi CPU cố gắng truy cập một trang không có trong bộ nhớ chính (RAM)
C. Khi xảy ra lỗi ghi vào bộ nhớ
D. Khi dữ liệu trong cache không khớp với bộ nhớ chính
9. Kiến trúc NUMA (Non-Uniform Memory Access) khác biệt so với kiến trúc SMP (Symmetric Multiprocessing) ở điểm nào?
A. Số lượng CPU
B. Cách các CPU truy cập bộ nhớ
C. Tốc độ xung nhịp CPU
D. Loại bộ nhớ sử dụng
10. Phương pháp nào sau đây giúp tăng băng thông bộ nhớ bằng cách cho phép truy cập đồng thời vào nhiều module bộ nhớ?
A. Bộ nhớ cache
B. Interleaving bộ nhớ
C. Bộ nhớ ảo
D. DMA
11. Trong kiến trúc tập lệnh (ISA), 'opcode' có chức năng chính là gì?
A. Chỉ định địa chỉ bộ nhớ
B. Xác định loại dữ liệu
C. Mã hóa phép toán cần thực hiện
D. Chứa kết quả của phép toán
12. Bộ điều khiển bộ nhớ (Memory Controller) có chức năng chính là gì?
A. Thực hiện các phép toán trên dữ liệu trong bộ nhớ
B. Quản lý và điều phối các truy cập đến bộ nhớ chính (RAM)
C. Lưu trữ dữ liệu tạm thời
D. Cung cấp nguồn điện cho bộ nhớ
13. Công nghệ DMA (Direct Memory Access) cho phép thiết bị ngoại vi truy cập trực tiếp vào bộ nhớ chính mà không cần sự can thiệp của CPU, nhằm mục đích gì?
A. Tăng độ bảo mật của hệ thống
B. Giảm tải cho CPU trong các hoạt động truyền dữ liệu lớn
C. Đơn giản hóa thiết kế mạch điều khiển
D. Giảm tiêu thụ điện năng của bộ nhớ
14. Chức năng chính của bộ giải mã lệnh (Instruction Decoder) trong CPU là gì?
A. Lấy lệnh từ bộ nhớ
B. Thực hiện lệnh
C. Phân tích và giải mã lệnh để xác định các bước cần thực hiện
D. Lưu trữ lệnh sau khi thực hiện
15. Trong kiến trúc GPU (Graphics Processing Unit), số lượng lớn các nhân xử lý song song nhỏ được thiết kế để tối ưu hóa cho loại tác vụ nào?
A. Xử lý văn bản
B. Tính toán số học dấu phẩy động song song (ví dụ: đồ họa, machine learning)
C. Quản lý hệ thống file
D. Điều khiển thiết bị nhập/xuất
16. Thanh ghi chương trình (Program Counter - PC) trong CPU có vai trò gì?
A. Lưu trữ dữ liệu đang được xử lý
B. Lưu trữ địa chỉ của lệnh tiếp theo cần thực hiện
C. Lưu trữ kết quả của phép toán
D. Lưu trữ thông tin trạng thái của CPU
17. Kiến trúc Von Neumann khác biệt so với kiến trúc Harvard chủ yếu ở điểm nào?
A. Sử dụng bộ nhớ cache
B. Sử dụng pipeline
C. Sử dụng chung bộ nhớ cho cả dữ liệu và lệnh
D. Sử dụng nhiều nhân xử lý
18. Phương pháp địa chỉ hóa nào cho phép tính toán địa chỉ bộ nhớ dựa trên nội dung của một thanh ghi và một giá trị offset?
A. Địa chỉ hóa trực tiếp
B. Địa chỉ hóa gián tiếp
C. Địa chỉ hóa thanh ghi
D. Địa chỉ hóa tương đối (base-offset)
19. Công nghệ siêu phân luồng (Hyper-threading) của Intel cho phép một nhân CPU vật lý hoạt động như hai nhân logic, lợi ích chính của nó là gì?
A. Giảm tiêu thụ điện năng
B. Tăng gấp đôi hiệu suất của một nhân đơn lẻ
C. Cải thiện hiệu suất trong các ứng dụng đa luồng bằng cách tận dụng tốt hơn tài nguyên nhân
D. Tăng tần số xung nhịp CPU
20. Loại bus nào trong hệ thống máy tính được sử dụng để truyền dữ liệu giữa CPU và bộ nhớ chính?
A. Bus điều khiển
B. Bus địa chỉ
C. Bus dữ liệu
D. Bus nguồn
21. Pipelining trong CPU nhằm mục đích cải thiện hiệu suất bằng cách nào?
A. Giảm độ trễ của từng lệnh
B. Tăng tần số xung nhịp CPU
C. Thực hiện đồng thời nhiều lệnh ở các giai đoạn khác nhau
D. Giảm kích thước bộ nhớ cache
22. Ưu điểm chính của kiến trúc đa nhân (multi-core) so với kiến trúc đơn nhân (single-core) là gì?
A. Tiêu thụ điện năng thấp hơn
B. Giá thành sản xuất rẻ hơn
C. Khả năng thực hiện song song nhiều tác vụ, tăng hiệu suất tổng thể
D. Tần số xung nhịp cao hơn
23. Trong hệ thống RAID (Redundant Array of Independent Disks), mục đích chính của việc sử dụng RAID 5 là gì?
A. Tăng tốc độ đọc/ghi dữ liệu
B. Cung cấp khả năng chịu lỗi và phục hồi dữ liệu
C. Giảm chi phí lưu trữ
D. Tăng dung lượng lưu trữ tối đa
24. Trong kiến trúc máy tính, 'bottleneck' (nút cổ chai) thường dùng để chỉ thành phần nào?
A. Thành phần có tốc độ xử lý nhanh nhất
B. Thành phần giới hạn hiệu suất tổng thể của hệ thống
C. Thành phần tiêu thụ điện năng nhiều nhất
D. Thành phần quan trọng nhất đối với hoạt động
25. Thành phần nào của kiến trúc máy tính chịu trách nhiệm thực hiện các phép toán số học và logic?
A. Bộ nhớ chính (RAM)
B. Khối xử lý trung tâm (CPU)
C. Thiết bị nhập/xuất (I/O)
D. Bus hệ thống
26. Trong thiết kế CPU, 'instruction-level parallelism' (ILP) là gì và pipelining là một kỹ thuật để khai thác ILP như thế nào?
A. ILP là việc thực hiện song song nhiều chương trình khác nhau; pipelining không liên quan đến ILP.
B. ILP là việc thực hiện song song các lệnh khác nhau trong cùng một chương trình; pipelining là một kỹ thuật để khai thác ILP bằng cách cho phép nhiều lệnh ở các giai đoạn thực hiện khác nhau.
C. ILP là việc tăng tốc độ xung nhịp; pipelining là kỹ thuật để giảm tốc độ xung nhịp.
D. ILP là việc sử dụng nhiều nhân CPU; pipelining là kỹ thuật cho CPU đơn nhân.
27. Trong kiến trúc máy tính, 'Amdahl's Law' mô tả điều gì?
A. Giới hạn lý thuyết về tăng tốc hiệu suất khi song song hóa một tác vụ
B. Mối quan hệ giữa tần số xung nhịp và hiệu suất CPU
C. Nguyên tắc hoạt động của bộ nhớ cache
D. Cách tính toán địa chỉ bộ nhớ hiệu dụng
28. Thanh ghi trạng thái (Status Register) hoặc thanh ghi cờ (Flag Register) trong CPU dùng để làm gì?
A. Lưu trữ địa chỉ bộ nhớ
B. Lưu trữ kết quả phép toán
C. Lưu trữ thông tin về trạng thái hiện tại của CPU và kết quả của các phép toán
D. Lưu trữ lệnh đang được thực hiện
29. Lỗi 'cache coherence' xảy ra trong hệ thống đa xử lý khi nào?
A. Khi bộ nhớ cache bị đầy
B. Khi dữ liệu trong cache không đồng bộ giữa các CPU khác nhau
C. Khi xảy ra lỗi truy cập bộ nhớ chính
D. Khi CPU cố gắng truy cập dữ liệu không có trong cache
30. Loại bộ nhớ nào thường được sử dụng làm bộ nhớ chỉ đọc (ROM) để lưu trữ firmware hoặc BIOS trong máy tính?
A. SRAM
B. DRAM
C. EEPROM (Electrically Erasable Programmable ROM)
D. Cache L1