Đề 9 – Bài tập, đề thi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Xử lý ngôn ngữ tự nhiên

Đề 9 - Bài tập, đề thi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

1. Evaluation metric (thước đo đánh giá) nào thường được sử dụng để đánh giá hiệu suất của mô hình phân loại văn bản?

A. BLEU score.
B. Perplexity.
C. F1-score.
D. Word Error Rate (WER).

2. TF-IDF (Term Frequency-Inverse Document Frequency) được sử dụng để làm gì?

A. Đo độ tương đồng giữa hai văn bản.
B. Tính trọng số của từ trong một văn bản so với tập hợp các văn bản (corpus).
C. Phân cụm văn bản dựa trên chủ đề.
D. Dự đoán từ tiếp theo trong một câu.

3. Perplexity thường được sử dụng để đánh giá:

A. Mô hình dịch máy.
B. Mô hình ngôn ngữ.
C. Mô hình phân loại văn bản.
D. Mô hình tóm tắt văn bản.

4. Mục tiêu chính của stemming trong NLP là gì?

A. Tìm ra gốc từ của một từ bằng cách loại bỏ các hậu tố và tiền tố.
B. Chuyển đổi tất cả các từ về dạng chữ thường.
C. Phân loại văn bản dựa trên chủ đề.
D. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.

5. Named Entity Recognition (NER) là tác vụ NLP nhằm:

A. Dịch tên người, tổ chức và địa điểm sang ngôn ngữ khác.
B. Xác định và phân loại các thực thể có tên (ví dụ: người, tổ chức, địa điểm) trong văn bản.
C. Tạo ra tên mới cho sản phẩm hoặc dịch vụ.
D. Tìm kiếm các bài báo khoa học liên quan đến một thực thể nhất định.

6. Ứng dụng nào sau đây KHÔNG phải là ứng dụng của NLP?

A. Dịch máy (Machine Translation)
B. Phân tích cảm xúc (Sentiment Analysis)
C. Nhận dạng đối tượng trong ảnh (Object Detection)
D. Trợ lý ảo (Chatbot)

7. Zero-shot learning trong NLP đề cập đến khả năng của mô hình:

A. Học mà không cần bất kỳ dữ liệu huấn luyện nào.
B. Thực hiện tốt trên các tác vụ hoặc lớp mà nó chưa từng được huấn luyện trực tiếp.
C. Huấn luyện cực kỳ nhanh chóng.
D. Đạt độ chính xác tuyệt đối trên dữ liệu huấn luyện.

8. Word Error Rate (WER) là thước đo hiệu suất chính cho tác vụ nào trong NLP?

A. Nhận dạng giọng nói (Speech Recognition).
B. Phân tích cú pháp.
C. Phân tích ngữ nghĩa.
D. Sinh văn bản.

9. Tokenization trong NLP là quá trình:

A. Chuyển đổi văn bản thành giọng nói.
B. Chia văn bản thành các đơn vị nhỏ hơn, ví dụ như từ hoặc cụm từ.
C. Loại bỏ các từ dừng (stop words) khỏi văn bản.
D. Gán nhãn loại từ (POS tagging) cho mỗi từ trong câu.

10. Lemmatization khác với stemming ở điểm nào?

A. Lemmatization nhanh hơn stemming.
B. Lemmatization cho kết quả là từ có nghĩa trong từ điển (lemma), trong khi stemming có thể tạo ra gốc từ không có nghĩa.
C. Stemming xét đến ngữ cảnh của từ, còn lemmatization thì không.
D. Stemming được sử dụng cho tiếng Anh, còn lemmatization cho các ngôn ngữ khác.

11. Bag-of-Words (BoW) là phương pháp biểu diễn văn bản dựa trên:

A. Thứ tự xuất hiện của các từ trong văn bản.
B. Tần suất xuất hiện của mỗi từ trong văn bản, bỏ qua thứ tự.
C. Mối quan hệ ngữ pháp giữa các từ.
D. Ngữ cảnh xuất hiện của các từ.

12. Subword tokenization (ví dụ: Byte Pair Encoding - BPE) giúp ích gì trong NLP, đặc biệt là với các ngôn ngữ có từ phức tạp?

A. Tăng độ chính xác của POS tagging.
B. Xử lý hiệu quả các từ hiếm (out-of-vocabulary words) và giảm kích thước từ vựng.
C. Tăng tốc độ dịch máy.
D. Cải thiện khả năng phân tích cảm xúc.

13. Phân tích cú pháp (Parsing) trong NLP giúp xác định:

A. Ý nghĩa của từng từ trong câu.
B. Cấu trúc ngữ pháp của câu và mối quan hệ giữa các từ.
C. Cảm xúc thể hiện trong văn bản.
D. Chủ đề chính của văn bản.

14. Một trong những thách thức lớn nhất của NLP hiện nay là:

A. Tốc độ xử lý văn bản chậm.
B. Sự mơ hồ và đa dạng của ngôn ngữ tự nhiên, bao gồm cả nghĩa bóng, ẩn dụ, và sự khác biệt văn hóa.
C. Thiếu dữ liệu văn bản để huấn luyện mô hình.
D. Chi phí tính toán quá cao để huấn luyện mô hình.

15. Xử lý ngôn ngữ tự nhiên (NLP) chủ yếu tập trung vào việc:

A. Phân tích và giải thích dữ liệu số liệu thống kê.
B. Giúp máy tính hiểu, xử lý và tạo ra ngôn ngữ của con người.
C. Thiết kế các thuật toán tối ưu hóa cơ sở dữ liệu.
D. Phát triển giao diện người dùng đồ họa trực quan.

16. Pre-training mô hình ngôn ngữ trên lượng lớn dữ liệu văn bản (ví dụ: BERT, GPT) mang lại lợi ích chính nào?

A. Giảm chi phí tính toán khi huấn luyện mô hình cho các tác vụ cụ thể.
B. Mô hình học được biểu diễn ngôn ngữ tổng quát, có thể tinh chỉnh (fine-tune) cho nhiều tác vụ NLP khác nhau với ít dữ liệu hơn.
C. Mô hình có khả năng sinh văn bản tự nhiên hơn.
D. Tăng độ chính xác của mô hình trên mọi tác vụ NLP mà không cần tinh chỉnh.

17. Dropout regularization là một kỹ thuật trong deep learning nhằm:

A. Tăng độ chính xác của mô hình trên dữ liệu huấn luyện.
B. Giảm hiện tượng overfitting (quá khớp) bằng cách ngẫu nhiên bỏ qua một số nơ-ron trong quá trình huấn luyện.
C. Tăng tốc độ hội tụ của mô hình.
D. Làm cho mô hình dễ diễn giải hơn.

18. Few-shot learning khác với zero-shot learning như thế nào?

A. Few-shot learning đòi hỏi nhiều dữ liệu huấn luyện hơn zero-shot learning.
B. Few-shot learning cho phép mô hình học từ một số lượng nhỏ ví dụ huấn luyện cho tác vụ mới, trong khi zero-shot learning không sử dụng bất kỳ ví dụ nào.
C. Zero-shot learning chỉ áp dụng cho mô hình ngôn ngữ, còn few-shot learning áp dụng cho mọi loại mô hình.
D. Few-shot learning chỉ tập trung vào phân loại văn bản, còn zero-shot learning tập trung vào dịch máy.

19. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

A. Phân tích cú pháp (Parsing)
B. Phân tích ngữ nghĩa (Semantic Analysis)
C. Biên dịch mã nguồn (Code Compilation)
D. Phân tích hình thái học (Morphological Analysis)

20. BLEU (Bilingual Evaluation Understudy) score được sử dụng để đánh giá chất lượng của:

A. Mô hình phân tích cảm xúc.
B. Mô hình dịch máy.
C. Mô hình tóm tắt văn bản.
D. Mô hình sinh văn bản.

21. Ví dụ nào sau đây thể hiện sự mơ hồ về ngữ nghĩa mà NLP cần giải quyết?

A. “Con mèo đen nhảy qua hàng rào.”
B. “Tôi nhìn thấy con dơi.” (dơi có thể là động vật hoặc dụng cụ thể thao)
C. “Thời tiết hôm nay đẹp.”
D. “Máy tính của tôi chạy nhanh.”

22. Transformer network vượt trội hơn RNN trong xử lý ngôn ngữ tự nhiên chủ yếu nhờ vào cơ chế nào?

A. Cơ chế pooling.
B. Cơ chế attention (tự chú ý).
C. Cơ chế convolution.
D. Cơ chế dropout.

23. Mô hình ngôn ngữ (Language Model) có vai trò gì trong NLP?

A. Dự đoán chuỗi mã lệnh.
B. Dự đoán xác suất xuất hiện của một chuỗi từ trong ngôn ngữ.
C. Phân tích cảm xúc của người dùng.
D. Nhận diện khuôn mặt trong ảnh.

24. Semantic analysis (phân tích ngữ nghĩa) tập trung vào:

A. Hình thức và cấu trúc của ngôn ngữ.
B. Ý nghĩa của ngôn ngữ, bao gồm cả nghĩa của từ và câu trong ngữ cảnh.
C. Âm thanh và phát âm của ngôn ngữ.
D. Lịch sử và nguồn gốc của ngôn ngữ.

25. Khái niệm 'attention′ trong Transformer giúp giải quyết vấn đề gì mà RNN gặp phải khi xử lý văn bản dài?

A. Vấn đề tốc độ xử lý chậm.
B. Vấn đề vanishing gradient và khó khăn trong việc ghi nhớ thông tin ở đầu chuỗi văn bản dài.
C. Vấn đề overfitting trên dữ liệu huấn luyện nhỏ.
D. Vấn đề thiếu dữ liệu huấn luyện.

26. Ethical considerations (vấn đề đạo đức) trong NLP ngày càng được quan tâm, đặc biệt liên quan đến:

A. Hiệu suất của mô hình dịch máy.
B. Bias (thiên kiến) trong dữ liệu và mô hình, dẫn đến phân biệt đối xử hoặc lan truyền thông tin sai lệch.
C. Tốc độ xử lý của trợ lý ảo.
D. Kích thước bộ nhớ cần thiết để lưu trữ mô hình ngôn ngữ.

27. Word embedding (nhúng từ) được sử dụng để:

A. Mã hóa từ thành các vector số, giúp máy tính hiểu được ý nghĩa tương đối của từ.
B. Tăng tốc độ xử lý văn bản.
C. Giảm kích thước bộ nhớ cần thiết để lưu trữ văn bản.
D. Kiểm tra chính tả và ngữ pháp của văn bản.

28. Backpropagation là thuật toán quan trọng trong mạng nơ-ron, nó được sử dụng để:

A. Tăng tốc độ xử lý dữ liệu đầu vào.
B. Tính toán và lan truyền lỗi ngược lại trong mạng để cập nhật trọng số.
C. Chọn lọc đặc trưng quan trọng từ dữ liệu.
D. Phân cụm dữ liệu đầu vào.

29. Recurrent Neural Network (RNN) thường được sử dụng trong NLP cho các tác vụ nào?

A. Phân loại ảnh.
B. Xử lý dữ liệu chuỗi tuần tự như văn bản hoặc giọng nói.
C. Phát hiện gian lận trong giao dịch tài chính.
D. Dự báo thời tiết.

30. Fine-tuning (tinh chỉnh) một mô hình pre-trained trong NLP là quá trình:

A. Huấn luyện lại toàn bộ mô hình từ đầu trên dữ liệu mới.
B. Điều chỉnh mô hình pre-trained trên một tập dữ liệu nhỏ hơn, cụ thể cho một tác vụ NLP nhất định.
C. Nén kích thước mô hình để triển khai trên thiết bị di động.
D. Thay đổi kiến trúc mạng nơ-ron của mô hình.

1 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

1. Evaluation metric (thước đo đánh giá) nào thường được sử dụng để đánh giá hiệu suất của mô hình phân loại văn bản?

2 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

2. TF-IDF (Term Frequency-Inverse Document Frequency) được sử dụng để làm gì?

3 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

3. Perplexity thường được sử dụng để đánh giá:

4 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

4. Mục tiêu chính của stemming trong NLP là gì?

5 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

5. Named Entity Recognition (NER) là tác vụ NLP nhằm:

6 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

6. Ứng dụng nào sau đây KHÔNG phải là ứng dụng của NLP?

7 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

7. Zero-shot learning trong NLP đề cập đến khả năng của mô hình:

8 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

8. Word Error Rate (WER) là thước đo hiệu suất chính cho tác vụ nào trong NLP?

9 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

9. Tokenization trong NLP là quá trình:

10 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

10. Lemmatization khác với stemming ở điểm nào?

11 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

11. Bag-of-Words (BoW) là phương pháp biểu diễn văn bản dựa trên:

12 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

12. Subword tokenization (ví dụ: Byte Pair Encoding - BPE) giúp ích gì trong NLP, đặc biệt là với các ngôn ngữ có từ phức tạp?

13 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

13. Phân tích cú pháp (Parsing) trong NLP giúp xác định:

14 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

14. Một trong những thách thức lớn nhất của NLP hiện nay là:

15 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

15. Xử lý ngôn ngữ tự nhiên (NLP) chủ yếu tập trung vào việc:

16 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

16. Pre-training mô hình ngôn ngữ trên lượng lớn dữ liệu văn bản (ví dụ: BERT, GPT) mang lại lợi ích chính nào?

17 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

17. Dropout regularization là một kỹ thuật trong deep learning nhằm:

18 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

18. Few-shot learning khác với zero-shot learning như thế nào?

19 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

19. Công đoạn nào sau đây KHÔNG thuộc quy trình xử lý ngôn ngữ tự nhiên điển hình?

20 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

20. BLEU (Bilingual Evaluation Understudy) score được sử dụng để đánh giá chất lượng của:

21 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

21. Ví dụ nào sau đây thể hiện sự mơ hồ về ngữ nghĩa mà NLP cần giải quyết?

22 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

22. Transformer network vượt trội hơn RNN trong xử lý ngôn ngữ tự nhiên chủ yếu nhờ vào cơ chế nào?

23 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

23. Mô hình ngôn ngữ (Language Model) có vai trò gì trong NLP?

24 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

24. Semantic analysis (phân tích ngữ nghĩa) tập trung vào:

25 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

25. Khái niệm `attention′ trong Transformer giúp giải quyết vấn đề gì mà RNN gặp phải khi xử lý văn bản dài?

26 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

26. Ethical considerations (vấn đề đạo đức) trong NLP ngày càng được quan tâm, đặc biệt liên quan đến:

27 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

27. Word embedding (nhúng từ) được sử dụng để:

28 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

28. Backpropagation là thuật toán quan trọng trong mạng nơ-ron, nó được sử dụng để:

29 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

29. Recurrent Neural Network (RNN) thường được sử dụng trong NLP cho các tác vụ nào?

30 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 9

30. Fine-tuning (tinh chỉnh) một mô hình pre-trained trong NLP là quá trình: