Đề 2 – Bài tập, đề thi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Xử lý ngôn ngữ tự nhiên

Đề 2 - Bài tập, đề thi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

1. Coreference resolution (giải quyết đồng tham chiếu) là gì trong NLP?

A. Phân tích cấu trúc câu phức tạp.
B. Xác định các cụm từ hoặc đại từ cùng tham chiếu đến một thực thể trong văn bản.
C. Dịch các câu có cấu trúc phức tạp.
D. Phân loại các loại câu khác nhau.

2. Few-shot learning là gì trong bối cảnh NLP?

A. Học từ một số lượng lớn ví dụ có nhãn.
B. Học từ một số lượng rất ít ví dụ có nhãn, thường là vài ví dụ cho mỗi lớp∕nhãn.
C. Học mà không cần bất kỳ nhãn nào.
D. Học từ dữ liệu không có cấu trúc.

3. TF-IDF được sử dụng để làm gì trong NLP?

A. Phân loại văn bản theo chủ đề.
B. Đo lường tầm quan trọng của từ trong một văn bản so với tập hợp văn bản.
C. Tìm kiếm văn bản tương tự.
D. Tóm tắt văn bản.

4. Chatbot (trợ lý ảo) ứng dụng NLP để thực hiện chức năng chính nào?

A. Phân tích dữ liệu số lượng lớn.
B. Hiểu và phản hồi lại các yêu cầu của người dùng bằng ngôn ngữ tự nhiên.
C. Tự động hóa quy trình sản xuất.
D. Quản lý cơ sở dữ liệu.

5. Ứng dụng nào sau đây KHÔNG phải là ứng dụng phổ biến của NLP?

A. Phân loại ảnh.
B. Chatbot.
C. Dịch máy.
D. Phân tích cảm xúc.

6. Fine-tuning (tinh chỉnh) một mô hình NLP tiền huấn luyện (pre-trained model) nghĩa là gì?

A. Huấn luyện lại toàn bộ mô hình từ đầu với dữ liệu mới.
B. Điều chỉnh mô hình đã huấn luyện sẵn trên một tập dữ liệu cụ thể cho một nhiệm vụ cụ thể.
C. Nén kích thước mô hình để giảm dung lượng.
D. Thay đổi kiến trúc mạng nơ-ron của mô hình.

7. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

A. Phân tích cú pháp (Parsing).
B. Phân tích ngữ nghĩa (Semantic Analysis).
C. Biên dịch mã nguồn (Code Compilation).
D. Sinh ngôn ngữ (Language Generation).

8. Text summarization (tóm tắt văn bản) có hai phương pháp chính là extractive và abstractive. Sự khác biệt chính giữa chúng là gì?

A. Extractive summarization tạo ra bản tóm tắt ngắn hơn abstractive summarization.
B. Extractive summarization chọn lọc và kết hợp các câu nguyên gốc từ văn bản, còn abstractive summarization diễn giải lại và có thể tạo ra câu mới.
C. Extractive summarization chính xác hơn abstractive summarization.
D. Extractive summarization chỉ hoạt động với văn bản ngắn, còn abstractive summarization hoạt động với văn bản dài.

9. Recurrent Neural Network (RNN) thường được sử dụng trong NLP cho các tác vụ nào?

A. Xử lý dữ liệu dạng bảng.
B. Xử lý dữ liệu ảnh tĩnh.
C. Xử lý dữ liệu chuỗi tuần tự, ví dụ như văn bản.
D. Phân tích dữ liệu dạng cây.

10. Phương pháp nào sau đây có thể giúp giảm thiểu bias trong mô hình NLP?

A. Tăng kích thước dữ liệu huấn luyện.
B. Sử dụng kiến trúc mô hình phức tạp hơn.
C. Cân bằng dữ liệu huấn luyện và áp dụng các kỹ thuật debiasing (giảm thiên kiến).
D. Giảm số lượng tham số của mô hình.

11. Mô hình ngôn ngữ (Language Model) trong NLP có chức năng chính là gì?

A. Dịch văn bản giữa các ngôn ngữ.
B. Dự đoán từ hoặc chuỗi từ tiếp theo trong một câu.
C. Phân tích cảm xúc của văn bản.
D. Tạo ra câu trả lời tự động cho câu hỏi.

12. Named Entity Recognition (NER) là nhiệm vụ NLP nhằm mục đích gì?

A. Phân tích cảm xúc của văn bản.
B. Xác định và phân loại các thực thể có tên (ví dụ: người, tổ chức, địa điểm) trong văn bản.
C. Tóm tắt nội dung chính của văn bản.
D. Dịch tên riêng giữa các ngôn ngữ.

13. Text classification (phân loại văn bản) là quá trình gán nhãn hoặc danh mục cho văn bản dựa trên điều gì?

A. Độ dài của văn bản.
B. Nội dung hoặc chủ đề của văn bản.
C. Ngôn ngữ được sử dụng trong văn bản.
D. Nguồn gốc của văn bản.

14. Stop words (từ dừng) thường được loại bỏ trong NLP vì lý do chính nào?

A. Để tăng tính thẩm mỹ của văn bản.
B. Để giảm kích thước bộ từ vựng và tập trung vào các từ mang nhiều thông tin hơn.
C. Để cải thiện khả năng phát hiện ngôn ngữ.
D. Để mã hóa văn bản dễ dàng hơn.

15. Machine Translation (dịch máy) sử dụng NLP để làm gì?

A. Phân tích cấu trúc ngữ pháp của ngôn ngữ.
B. Chuyển đổi văn bản từ ngôn ngữ này sang ngôn ngữ khác một cách tự động.
C. Tạo ra văn bản gốc từ dữ liệu.
D. Nhận diện giọng nói và chuyển thành văn bản.

16. Mục tiêu chính của Xử lý ngôn ngữ tự nhiên (NLP) là gì?

A. Để máy tính hiểu và xử lý ngôn ngữ của con người.
B. Để tạo ra các chương trình máy tính phức tạp.
C. Để phát triển phần cứng máy tính mới.
D. Để dịch ngôn ngữ lập trình sang ngôn ngữ máy.

17. Bag-of-Words (BOW) là một phương pháp biểu diễn văn bản trong NLP. Hạn chế lớn nhất của BOW là gì?

A. Không thể xử lý văn bản dài.
B. Mất đi thông tin về thứ tự của từ trong câu.
C. Yêu cầu bộ nhớ lớn để lưu trữ vector.
D. Chỉ hoạt động tốt với tiếng Anh.

18. Giải thích nào sau đây đúng nhất về 'Bias′ (thiên kiến) trong mô hình NLP?

A. Bias là một lỗi lập trình trong mã nguồn của mô hình.
B. Bias là xu hướng của mô hình học và tái tạo lại các định kiến có trong dữ liệu huấn luyện.
C. Bias chỉ xuất hiện trong các mô hình đơn giản, không phải mô hình phức tạp.
D. Bias luôn làm giảm hiệu suất của mô hình NLP.

19. Paraphrasing (diễn giải lại) trong NLP có nghĩa là gì?

A. Tóm tắt văn bản dài thành văn bản ngắn hơn.
B. Viết lại một văn bản hoặc câu với từ ngữ khác nhưng vẫn giữ nguyên ý nghĩa.
C. Dịch văn bản sang ngôn ngữ khác.
D. Phân tích cảm xúc của văn bản gốc.

20. BERT là một mô hình Transformer nổi tiếng trong NLP. BERT đặc biệt hiệu quả trong nhiệm vụ nào?

A. Sinh văn bản tự do.
B. Hiểu ngữ cảnh hai chiều của từ trong câu.
C. Dịch ngôn ngữ theo thời gian thực.
D. Phân tích giọng nói.

21. Zero-shot learning trong NLP đề cập đến khả năng của mô hình nào?

A. Học mà không cần bất kỳ dữ liệu huấn luyện nào.
B. Thực hiện một nhiệm vụ mà mô hình chưa từng được huấn luyện trực tiếp cho nhiệm vụ đó.
C. Huấn luyện mô hình trên dữ liệu tổng hợp (synthetic data).
D. Học từ rất ít dữ liệu huấn luyện.

22. One-shot learning trong NLP khác với zero-shot learning như thế nào?

A. One-shot learning yêu cầu nhiều dữ liệu huấn luyện hơn zero-shot learning.
B. One-shot learning có thể học từ một ví dụ duy nhất cho mỗi lớp∕nhãn mới, trong khi zero-shot learning không cần ví dụ nào.
C. One-shot learning chỉ áp dụng cho bài toán phân loại văn bản, còn zero-shot learning thì không.
D. One-shot learning nhanh hơn zero-shot learning.

23. Transformer networks đã cách mạng hóa NLP như thế nào so với RNN?

A. Transformer nhanh hơn và hiệu quả hơn trong việc xử lý các chuỗi dài, đồng thời cho phép tính toán song song.
B. Transformer tiêu thụ ít bộ nhớ hơn RNN.
C. Transformer dễ huấn luyện hơn RNN.
D. Transformer có khả năng xử lý ngôn ngữ hình ảnh tốt hơn RNN.

24. Ví dụ nào sau đây thể hiện rõ nhất vấn đề 'Contextual understanding′ (hiểu ngữ cảnh) trong NLP?

A. Mô hình dịch sai từ 'bank′ trong câu 'I went to the bank to deposit money′ so với 'river bank′.
B. Mô hình không nhận diện được từ 'cat′ và 'dog′ là động vật.
C. Mô hình không thể phân biệt được câu hỏi và câu trần thuật.
D. Mô hình không xử lý được văn bản viết tay.

25. Nhiệm vụ nào sau đây thuộc về phân tích cú pháp (parsing) trong NLP?

A. Xác định chủ đề chính của văn bản.
B. Phân tích cấu trúc ngữ pháp của câu.
C. Dự đoán cảm xúc thể hiện trong văn bản.
D. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.

26. Tokenization trong NLP đề cập đến quá trình nào?

A. Chuyển đổi văn bản thành giọng nói.
B. Phân tách văn bản thành các đơn vị nhỏ hơn, ví dụ như từ hoặc cụm từ.
C. Loại bỏ các từ dừng (stop words) khỏi văn bản.
D. Gán nhãn từ loại (part-of-speech tagging) cho mỗi từ.

27. Word Embedding (biểu diễn nhúng từ) giúp ích gì cho các mô hình NLP?

A. Tăng tốc độ xử lý văn bản.
B. Giảm dung lượng lưu trữ văn bản.
C. Biểu diễn từ dưới dạng vector số, giúp mô hình hiểu được ngữ nghĩa và quan hệ giữa các từ.
D. Cải thiện khả năng phát hiện lỗi chính tả.

28. Cơ chế 'Attention′ trong Transformer giúp ích gì cho các mô hình NLP?

A. Giảm số lượng tham số mô hình.
B. Cho phép mô hình tập trung vào các phần quan trọng của đầu vào khi xử lý.
C. Tăng cường tính bảo mật của dữ liệu.
D. Cải thiện khả năng phát hiện lỗi chính tả.

29. Sentiment Analysis (phân tích cảm xúc) thường được ứng dụng để làm gì?

A. Phân loại văn bản theo chủ đề.
B. Xác định ý kiến, thái độ hoặc cảm xúc được thể hiện trong văn bản.
C. Dịch văn bản sang ngôn ngữ khác.
D. Sửa lỗi chính tả trong văn bản.

30. GPT (Generative Pre-trained Transformer) nổi bật với khả năng nào trong NLP?

A. Phân tích cảm xúc chi tiết.
B. Sinh văn bản mạch lạc và tự nhiên.
C. Phân loại chủ đề văn bản chính xác.
D. Tóm tắt văn bản cực ngắn.

1 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

1. Coreference resolution (giải quyết đồng tham chiếu) là gì trong NLP?

2 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

2. Few-shot learning là gì trong bối cảnh NLP?

3 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

3. TF-IDF được sử dụng để làm gì trong NLP?

4 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

4. Chatbot (trợ lý ảo) ứng dụng NLP để thực hiện chức năng chính nào?

5 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

5. Ứng dụng nào sau đây KHÔNG phải là ứng dụng phổ biến của NLP?

6 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

6. Fine-tuning (tinh chỉnh) một mô hình NLP tiền huấn luyện (pre-trained model) nghĩa là gì?

7 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

7. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

8 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

8. Text summarization (tóm tắt văn bản) có hai phương pháp chính là extractive và abstractive. Sự khác biệt chính giữa chúng là gì?

9 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

9. Recurrent Neural Network (RNN) thường được sử dụng trong NLP cho các tác vụ nào?

10 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

10. Phương pháp nào sau đây có thể giúp giảm thiểu bias trong mô hình NLP?

11 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

11. Mô hình ngôn ngữ (Language Model) trong NLP có chức năng chính là gì?

12 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

12. Named Entity Recognition (NER) là nhiệm vụ NLP nhằm mục đích gì?

13 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

13. Text classification (phân loại văn bản) là quá trình gán nhãn hoặc danh mục cho văn bản dựa trên điều gì?

14 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

14. Stop words (từ dừng) thường được loại bỏ trong NLP vì lý do chính nào?

15 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

15. Machine Translation (dịch máy) sử dụng NLP để làm gì?

16 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

16. Mục tiêu chính của Xử lý ngôn ngữ tự nhiên (NLP) là gì?

17 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

17. Bag-of-Words (BOW) là một phương pháp biểu diễn văn bản trong NLP. Hạn chế lớn nhất của BOW là gì?

18 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

18. Giải thích nào sau đây đúng nhất về `Bias′ (thiên kiến) trong mô hình NLP?

19 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

19. Paraphrasing (diễn giải lại) trong NLP có nghĩa là gì?

20 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

20. BERT là một mô hình Transformer nổi tiếng trong NLP. BERT đặc biệt hiệu quả trong nhiệm vụ nào?

21 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

21. Zero-shot learning trong NLP đề cập đến khả năng của mô hình nào?

22 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

22. One-shot learning trong NLP khác với zero-shot learning như thế nào?

23 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

23. Transformer networks đã cách mạng hóa NLP như thế nào so với RNN?

24 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

24. Ví dụ nào sau đây thể hiện rõ nhất vấn đề `Contextual understanding′ (hiểu ngữ cảnh) trong NLP?

25 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

25. Nhiệm vụ nào sau đây thuộc về phân tích cú pháp (parsing) trong NLP?

26 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

26. Tokenization trong NLP đề cập đến quá trình nào?

27 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

27. Word Embedding (biểu diễn nhúng từ) giúp ích gì cho các mô hình NLP?

28 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

28. Cơ chế `Attention′ trong Transformer giúp ích gì cho các mô hình NLP?

29 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

29. Sentiment Analysis (phân tích cảm xúc) thường được ứng dụng để làm gì?

30 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

30. GPT (Generative Pre-trained Transformer) nổi bật với khả năng nào trong NLP?