
Vấn đề Ảo Giác (hallucination) khi tương tác với Gen AI và cách khắc phục nó qua Prompt
Blog . TutorialsContents
Chào mừng bạn đến với Fx Studio. Bài viết hôm này về một chủ đề AI nói chung. Đó là sự áo giác (hallucination) sinh ra trong quá trình tương tác với các Gen AI.
Khi các Gen AI (ChatGPT, Gemini, Grok …) tự thừa nhận nội dung của mình là bịa ra.
Các mô hình trí tuệ nhân tạo (AI) tạo sinh, bao gồm cả Generative AI (Gen AI), thường gặp phải vấn đề “ảo giác” (hallucination) khi tạo ra nội dung. Đây là hiện tượng AI tự tin đưa ra thông tin bịa đặt để lấp đầy khoảng trống kiến thức hoặc tạo ra câu trả lời thuyết phục nhưng không chính xác.
Nếu đi vào phân tích thì chúng ta có 3 luận điểm sau cho vấn đề Gen AI “bịa ra” nội dung. Nó xuất phát bản chất của nó chứ không phải theo nhà cung cấp hay cài đặt gì cả.
Bản chất của models
Về hiện tượng “ảo giác” (hallucination) của GenAI, chúng ta cần phân tích sâu hơn về cơ chế hoạt động của chúng. Bản chất của GenAI, đặc biệt là các Mô hình Ngôn ngữ Lớn (Large Language Models – LLMs), dựa trên mô hình Transformer, một kiến trúc tập trung vào việc dự đoán từ tiếp theo trong một chuỗi (next-token prediction). Điều này có nghĩa là nội dung được tạo ra không phải là kết quả của việc tìm kiếm sự thật tuyệt đối, mà là việc “điền vào chỗ trống” với từ có xác suất xuất hiện cao nhất. Do đó, GenAI không thực sự “hiểu” thông tin mà chỉ tái tạo lại các mẫu đã học được từ dữ liệu huấn luyện (training data) khổng lồ.
Vấn đề “ảo giác” (hallucination) trong AI
Một số điểm ảnh hưởng tới như sau:
- Khả năng bịa đặt: Các mô hình AI như ChatGPT, Gemini … có thể tạo ra câu trả lời không chính xác hoặc bịa đặt thông tin để hoàn thiện câu chuyện hoặc trả lời câu hỏi một cách mạch lạc.
- Thiếu hiểu biết: AI có thể đưa ra khuyến nghị gây hại hoặc không chính xác do thiếu hiểu biết sâu sắc về ngữ cảnh thực tế.
- Cần giám sát: Các chuyên gia như: Jensen Huang, CEO của Nvidia, và Prabhakar Raghavan từ Google, đều nhấn mạnh rằng AI cần được giám sát cẩn thận để đảm bảo độ tin cậy.
Xu hướng của GenAI là tạo ra văn bản mạch lạc và trôi chảy (coherent and fluent text), điều này đôi khi dẫn đến việc chúng “sáng tạo” nội dung để lấp đầy những khoảng trống thông tin. Khi không có đủ tham chiếu hoặc giới hạn rõ ràng, GenAI có thể tạo ra các kết nối không tồn tại hoặc thông tin sai lệch để duy trì tính nhất quán của văn bản. Hiện tượng này được gọi là “ảo giác” (hallucination), và nó là một thách thức lớn đối với độ tin cậy (reliability) của GenAI.
Tự thừa nhận của Gen AI
Nhận thức được vấn đề này, các nhà phát triển đang nỗ lực cải thiện độ chính xác (accuracy) của GenAI bằng cách áp dụng nhiều chiến lược. Một trong số đó là định hướng mô hình để nhận biết và thừa nhận khi thông tin không chắc chắn (uncertainty). Khi phát hiện sự sai lệch, GenAI có thể được lập trình để “thuyết phục” người dùng bằng cách cung cấp thông tin có vẻ hợp lý, sau đó “rút lui” bằng cách thừa nhận sự không chắc chắn hoặc cung cấp nguồn tham khảo. Điều này giúp giảm thiểu rủi ro lan truyền thông tin sai lệch (misinformation) và tăng cường tính minh bạch (transparency) của mô hình.
Các nhà phát triển và chuyên gia AI đã công khai thừa nhận điểm yếu này trong các mô hình AI hiện nay. Ví dụ, Mira Murati, CTO của OpenAI, đã thừa nhận rằng ChatGPT có khả năng tạo ra thông tin sai lệch. Điều này cho thấy sự nhận thức rõ ràng về vấn đề “ảo giác” trong cộng đồng AI.
Một số nguyên tắc khi đặt prompt tránh “Ảo giác”
Vì đó là bản chất của Gen AI rồi, nên chúng ta không thay đổi được. Nhưng bạn có thể chủ động tránh để Gen AI đưa bạn vào một vòng lặp ảo giác. Tham khảo một vài nguyên tắc sau.
Cung cấp ngữ cảnh cụ thể và chi tiết
Khi đặt prompt, hãy đưa vào các yếu tố như thời gian, địa điểm, sự kiện hoặc mục đích để giúp AI hiểu rõ hơn về yêu cầu của bạn. Cung cấp đủ ngữ cảnh giúp AI tránh suy đoán hoặc đưa ra thông tin không chính xác.
Ví dụ: khi bạn có 1 prompt thế này
“Nói về biến đổi khí hậu.”
Thì hãy nói thế này
“Tóm tắt tác động của biến đổi khí hậu tại Việt Nam từ 2020-2025 dựa trên báo cáo khoa học.”
Tại sao hiệu quả?
- Việc giới hạn phạm vi giúp AI giảm không gian suy đoán và tập trung vào dữ liệu có sẵn.
Yêu cầu dựa trên dữ liệu xác minh
Để tránh việc AI bịa đặt thông tin, bạn nên yêu cầu AI chỉ sử dụng dữ liệu từ nguồn đáng tin cậy hoặc thừa nhận khi không có đủ thông tin.
Ví dụ:
“Có bao nhiêu loại vắc-xin COVID-19 hiện nay?”
Thì hãy nói thế này
“Các loại vắc-xin COVID-19 nào được WHO phê duyệt tính đến 03/03/2025? Nếu không chắc, hãy nói rõ.”
Tại sao hiệu quả?
- Buộc AI viện dẫn thực tế thay vì tạo nội dung không chính xác.
Sử dụng câu hỏi đóng hoặc chọn lựa
Câu hỏi có/không hoặc có phạm vi giới hạn sẽ giúp AI trả lời chính xác hơn, thay vì tự sáng tạo nội dung không có căn cứ.
Ví dụ:
“AI sẽ phát triển thế nào?”
Thì hãy nói thế này
“AI có vượt qua trí tuệ con người vào 2030 không, theo dự đoán hiện tại?”
Tại sao hiệu quả?
- Hạn chế không gian để AI suy đoán ngoài dữ liệu hiện có.
Tránh yêu cầu dự đoán không căn cứ
AI không phải là công cụ dự đoán chính xác về tương lai. Hãy yêu cầu AI dựa trên xu hướng hoặc dữ liệu hiện có thay vì đưa ra những dự đoán thiếu cơ sở.
Ví dụ:
“Kinh tế thế giới sẽ ra sao vào năm 2050?”
Thì hãy nói thế này
“Dựa trên báo cáo kinh tế 2024, xu hướng tăng trưởng GDP toàn cầu là gì?”
Tại sao hiệu quả?
- Ngăn AI tạo ra kịch bản không có cơ sở thực tế.
Yêu cầu AI tự kiểm tra hoặc giải thích
Bạn có thể yêu cầu AI cung cấp nguồn thông tin hoặc tự kiểm tra lại câu trả lời để tăng độ tin cậy.
Ví dụ:
“Trận chiến Điện Biên Phủ diễn ra khi nào?”
Thì hãy nói thế này
“Trận chiến Điện Biên Phủ diễn ra khi nào? Hãy giải thích nguồn gốc thông tin đó.”
Tại sao hiệu quả?
- Tăng độ minh bạch và giảm khả năng bịa đặt.
Giới hạn phạm vi sáng tạo
Ra lệnh rõ ràng để AI không thêm chi tiết ngoài dữ liệu thực tế có sẵn, giúp tránh nội dung không chính xác.
Ví dụ:
“Kể một câu chuyện về cách mạng công nghiệp lần thứ 4.”
Thì hãy nói thế này
“Chỉ liệt kê các sự kiện được ghi nhận về Cách mạng công nghiệp lần thứ 4, không suy đoán.”
Tại sao hiệu quả?
- Ngăn AI “điền” thông tin không cần thiết.
Đặt câu hỏi theo từng bước nhỏ
Chia nhỏ vấn đề thành nhiều câu hỏi giúp AI trả lời chính xác hơn, thay vì trả lời chung chung hoặc suy đoán.
Ví dụ:
“Nói về vũ trụ.” → “Hố đen là gì?” → “Hố đen gần nhất cách Trái Đất bao xa?”
Tại sao hiệu quả?
- Giúp AI tập trung vào từng phần, tránh lan man.
Sử dụng ngôn ngữ chỉ thị mạnh mẽ
Dùng từ ngữ ra lệnh rõ ràng để định hướng phản hồi của AI.
Ví dụ:
“Tóm tắt về sao Hỏa.”
Thì hãy nói thế này
“Không sáng tạo, chỉ tóm tắt dữ liệu khoa học về sao Hỏa từ NASA.”
Tại sao hiệu quả?
- Đặt ranh giới rõ ràng cho AI tuân theo.
Kiểm tra chéo trong cuộc hội thoại
Sau khi nhận câu trả lời, hãy tiếp tục đặt câu hỏi để xác nhận hoặc yêu cầu làm rõ thông tin trước đó.
Ví dụ:
“Có bao nhiêu người tham gia sự kiện này? Nguồn nào xác nhận con số đó?”
Tại sao hiệu quả?
- Buộc AI phải đối chiếu với dữ liệu thực tế.
Yêu cầu cập nhật từ nguồn mới nhất
Nếu AI có khả năng tra cứu trên web, hãy yêu cầu cập nhật thông tin từ nguồn mới nhất.
Ví dụ:
“Tình hình lũ lụt hiện nay thế nào?”
Thì hãy nói thế này
“Tìm trên web hoặc X: Tình hình lũ lụt ở Đông Nam Á tính đến 03/03/2025 là gì?”
Tại sao hiệu quả?
- Đảm bảo thông tin phản ánh thực tế hiện tại.
Kiểm tra câu trả lời từ nhiều nguồn
So sánh thông tin từ AI với các nguồn đáng tin cậy khác để đảm bảo tính chính xác.
Ví dụ:
“Sử dụng Google Scholar hoặc các cơ sở dữ liệu học thuật để đối chiếu thông tin.”
Tại sao hiệu quả?
- Tăng độ tin cậy và giảm rủi ro sai lệch.
Bảng tóm tắt
Nguyên Tắc | Mô Tả | Ví Dụ | Tại Sao Hiệu Quả |
---|---|---|---|
1. Cung cấp ngữ cảnh cụ thể và chi tiết | Đưa vào thời gian, địa điểm, sự kiện hoặc mục đích để định hướng AI. | Thay vì: “Nói về biến đổi khí hậu.” → Nên: “Tóm tắt tác động của biến đổi khí hậu tại Việt Nam từ 2020-2025 dựa trên báo cáo khoa học.” | Giảm không gian suy đoán bằng cách khóa phạm vi dữ liệu. |
2. Yêu cầu dựa trên dữ liệu xác minh | Hỏi AI chỉ dùng thông tin từ nguồn đáng tin hoặc thừa nhận khi không biết. | “Các loại vắc-xin COVID-19 nào được WHO phê duyệt tính đến 03/03/2025? Nếu không chắc, nói rõ.” | Buộc AI viện dẫn thực tế thay vì sáng tạo nội dung. |
3. Sử dụng câu hỏi đóng hoặc chọn lựa | Đặt câu hỏi có/không hoặc giới hạn đáp án để tránh sáng tạo dư thừa. | Thay vì: “AI sẽ phát triển thế nào?” → Nên: “AI có vượt qua trí tuệ con người vào 2030 không, theo dự đoán hiện tại?” | Hạn chế không gian để AI tưởng tượng ngoài dữ liệu. |
4. Tránh yêu cầu dự đoán không căn cứ | Tập trung vào xu hướng hoặc dữ liệu hiện có, không phải giả định tương lai. | “Dựa trên báo cáo kinh tế 2024, xu hướng tăng trưởng GDP toàn cầu là gì?” | Ngăn AI tạo ra kịch bản không có cơ sở thực tế. |
5. Yêu cầu AI tự kiểm tra hoặc giải thích | Đặt câu hỏi buộc AI đánh giá hoặc chứng minh câu trả lời của chính nó. | “Trận chiến Điện Biên Phủ diễn ra khi nào? Hãy giải thích nguồn gốc thông tin đó.” | Tăng độ minh bạch và giảm khả năng bịa đặt. |
6. Giới hạn phạm vi sáng tạo | Ra lệnh AI không thêm chi tiết ngoài dữ liệu thực tế có sẵn. | “Chỉ liệt kê các sự kiện được ghi nhận về Cách mạng công nghiệp lần thứ 4, không suy đoán.” | Ngăn AI “điền” thông tin không cần thiết. |
7. Đặt câu hỏi theo từng bước nhỏ | Chia nhỏ vấn đề thành các câu hỏi cụ thể để kiểm soát câu trả lời. | Thay vì: “Nói về vũ trụ.” → Nên: “Hố đen là gì?” rồi “Hố đen gần nhất cách Trái Đất bao xa?” | Giúp AI tập trung từng phần, tránh lan man. |
8. Sử dụng ngôn ngữ chỉ thị mạnh mẽ | Dùng từ ngữ ra lệnh rõ ràng để định hướng phản hồi của AI. | “Không sáng tạo, chỉ tóm tắt dữ liệu khoa học về sao Hỏa từ NASA.” | Đặt ranh giới rõ ràng cho AI tuân theo. |
9. Kiểm tra chéo trong cuộc hội thoại | Hỏi thêm để xác nhận hoặc yêu cầu làm rõ thông tin trước đó. | Sau khi AI trả lời: “Có bao nhiêu người tham gia sự kiện này? Nguồn nào xác nhận con số đó?” | Buộc AI phải đối chiếu với dữ liệu thực tế. |
10. Yêu cầu cập nhật từ nguồn mới nhất | Hỏi AI tìm kiếm thông tin mới nếu cần (nếu AI có khả năng tra cứu web). | “Tìm trên web: Tình hình lũ lụt ở Đông Nam Á tính đến 03/03/2025 là gì?” | Đảm bảo thông tin phản ánh thực tế hiện tại. |
11. Kiểm tra câu trả lời từ nhiều nguồn | So sánh thông tin từ AI với các nguồn đáng tin cậy để kiểm chứng. | Sử dụng Google Scholar hoặc các cơ sở dữ liệu học thuật để đối chiếu thông tin. | Tăng độ tin cậy và giảm rủi ro sai lệch. |
Lưu ý
- Linh hoạt áp dụng: Tùy ngữ cảnh, bạn có thể kết hợp nhiều nguyên tắc để đạt hiệu quả tối đa.
- Vai trò người dùng: Gen AI là công cụ hỗ trợ, không thay thế được khả năng phân tích và kiểm chứng của bạn.
- Khả năng của AI: Một số nguyên tắc (như 10) phụ thuộc vào việc AI có thể tra cứu thông tin mới.
Tạm kết
Bài viết chỉ là những kiến thức mình thu lượm được và chia sẻ lại dưới dạng note là chính. Nên sẽ có thể mắc nhiều sai sót. Hi vọng, nó sẽ giúp cho bạn có được một chút ý tưởng làm việc với Gen AI. Okay! Tới đây, mình xin kết thúc bài viết này. Nếu có gì thắc mắc hay góp ý cho mình. Thì bạn có thể để lại bình luận hoặc gửi email theo trang Contact.
Cảm ơn bạn đã đọc bài viết này!
Related Posts:
Written by chuotfx
Hãy ngồi xuống, uống miếng bánh và ăn miếng trà. Chúng ta cùng nhau đàm đạo về đời, về code nhóe!
Leave a Reply Cancel reply
Fan page
Tags
Recent Posts
- Vibe Coding là gì?
- Cách Đọc Sách Lập Trình Nhanh và Hiệu Quả Bằng GEN AI
- Nỗ Lực – Hành Trình Kiến Tạo Ý Nghĩa Cuộc Sống
- Ai Sẽ Là Người Fix Bug Khi AI Thống Trị Lập Trình?
- Thời Đại Của “Dev Tay To” Đã Qua Chưa?
- Prompt Engineering – Con Đường Để Trở Thành Một Nghề Nghiệp
- Vấn đề Ảo Giác (hallucination) khi tương tác với Gen AI và cách khắc phục nó qua Prompt
- Điều Gì Xảy Ra Nếu… Những Người Dệt Mã Trở Thành Những Người Bảo Vệ Cuối Cùng Của Sự Sáng Tạo?
- Khi Cô Đơn Gặp Python
- Học vì tồn tại
You may also like:
Archives
- April 2025 (1)
- March 2025 (8)
- January 2025 (7)
- December 2024 (4)
- September 2024 (1)
- July 2024 (1)
- June 2024 (1)
- May 2024 (4)
- April 2024 (2)
- March 2024 (5)
- January 2024 (4)
- February 2023 (1)
- January 2023 (2)
- November 2022 (2)
- October 2022 (1)
- September 2022 (5)
- August 2022 (6)
- July 2022 (7)
- June 2022 (8)
- May 2022 (5)
- April 2022 (1)
- March 2022 (3)
- February 2022 (5)
- January 2022 (4)
- December 2021 (6)
- November 2021 (8)
- October 2021 (8)
- September 2021 (8)
- August 2021 (8)
- July 2021 (9)
- June 2021 (8)
- May 2021 (7)
- April 2021 (11)
- March 2021 (12)
- February 2021 (3)
- January 2021 (3)
- December 2020 (3)
- November 2020 (9)
- October 2020 (7)
- September 2020 (17)
- August 2020 (1)
- July 2020 (3)
- June 2020 (1)
- May 2020 (2)
- April 2020 (3)
- March 2020 (20)
- February 2020 (5)
- January 2020 (2)
- December 2019 (12)
- November 2019 (12)
- October 2019 (19)
- September 2019 (17)
- August 2019 (10)