AI Hallucination
Ảo giác của AI
Một AI khẳng định: 'Chủ tịch Hồ Chí Minh sinh năm 1890 tại Nghệ An. Năm 1919, Người đã gặp trực tiếp Tổng thống Pháp Raymond Poincaré tại Paris để trình Bản yêu sách của nhân dân An Nam.' Theo bạn, đoạn này là…
Hãy tưởng tượng AI giống như một cậu học trò rất tự tin. Được giáo viên hỏi bất kỳ câu gì, cậu thà trả lời trôi chảy một câu nghe có vẻ đúngcòn hơn là thừa nhận “em không biết”. Giọng điệu luôn dứt khoát, diễn đạt mượt mà — nhưng thỉnh thoảng cậu bịa ra cả một cái tên, một con số, một câu trích dẫn không hề tồn tại.
Hiện tượng đó được gọi là ảo giác (tiếng Anh: hallucination). Nó không phải là “AI nói dối” theo kiểu có ý đồ. AI đơn giản được thiết kế để chọn từ tiếp theo nghe trơn tru nhất, chứ không phải từ đúng sự thật nhất. Khi câu hỏi có vẻ đã có đáp án, AI sẽ cố viết một đáp án — ngay cả khi trong “trí nhớ” của nó không hề có thông tin đó.
Với người dùng văn phòng — nhất là luật sư, nhà báo, giáo viên, giảng viên — đây là điều cần thuộc lòng trước khi giao việc cho AI.
Hình minh họa
Dưới đây là những đoạn do AI sinh ra khi được hỏi câu hỏi thật từ công việc hàng ngày. Trông đoạn nào cũng trôi chảy — nhưng trong mỗi đoạn có chính xác một câu bị bịa. Thử soi xem bạn có tìm được không.
Khi dùng AI qua API hoặc trong công cụ chuyên dụng, bạn có thể điều chỉnh tham số temperature(nhiệt độ sinh văn bản). Nhiệt độ càng thấp, AI càng thận trọng. Nhiệt độ càng cao, AI càng “sáng tạo” — và cũng càng dễ bịa.
Cùng câu hỏi: "Nhà thơ Xuân Quỳnh sinh năm nào và mất năm nào?"
Nhà thơ Xuân Quỳnh sinh năm 1942 và mất năm 1988 trong một tai nạn giao thông cùng chồng là nhà viết kịch Lưu Quang Vũ.
Không phải ảo giác nào cũng giống nhau. Kéo mỗi ví dụ vào đúng loại bên dưới để rèn phản xạ nhận diện.
Kéo mỗi câu nói của AI vào loại ảo giác tương ứng.
Trong các việc sau, việc nào NGUY HIỂM NHẤT nếu bạn dùng AI mà không kiểm chứng?
Giải thích
Ảo giác (hallucination) là hiện tượng AI tạo ra thông tin nghe hợp lý nhưng sai sự thật hoặc bịa đặt. Nó không phải lỗi phần mềm — nó là hệ quả tự nhiên của cách AI hoạt động.
Vì sao ảo giác xảy ra — nhìn bên trong một câu trả lời AI
Khi bạn hỏi, AI không tra cứu trong một kho dữ liệu sự thật. Nó so khớp câu hỏi với pattern ngôn ngữ đã học từ hàng tỷ trang văn bản trên Internet.
AI chọn từng từ tiếp theo có xác suất cao nhất trong ngữ cảnh. Nếu không có thông tin đúng, nó vẫn phải chọn một từ — và chọn từ gần đúng về mặt thống kê.
Văn bản ra luôn có giọng điệu mạch lạc. AI không đánh dấu “phần này tôi không chắc” — trừ khi bạn yêu cầu rõ.
Bốn dạng ảo giác bạn hay gặp nhất trong công việc:
Năm chiến lược giảm ảo giác trong công việc
- Dán tài liệu gốc vào prompt (RAG thủ công).Thay vì hỏi “Điều 5 Luật Đất đai nói gì?”, hãy copy nguyên văn điều luật đó rồi hỏi “Tóm tắt giúp điều này.” AI khi đó có nguyên liệu thật để tổng hợp, thay vì bịa từ trí nhớ. Xem chi tiết về RAG.
- Yêu cầu AI dẫn nguồn cụ thể — rồi tự tra nguồn đó. Ví dụ: “Trả lời dựa trên luật hiện hành ở Việt Nam, kèm số hiệu văn bản và điều khoản.” Sau đó, luôn luôn mở văn bản gốc để kiểm chứng.
- Cho phép AI nói “tôi không biết”.Thêm vào prompt câu: “Nếu bạn không chắc, hãy trả lời ‘Tôi không có thông tin chắc chắn’ thay vì đoán.” Điều này giảm đáng kể ảo giác.
- Cross-check bằng một mô hình khác. Hỏi cùng câu hỏi với hai AI khác nhau (ví dụ ChatGPT và Gemini). Nếu đáp án lệch, cả hai đều đáng nghi — phải tra nguồn sơ cấp.
- Kiểm chứng mọi trích dẫn trên nguồn sơ cấp. Không bao giờ paste trích dẫn do AI sinh vào báo cáo/hợp đồng/bài viết mà chưa mở trang gốc xem tận mắt.
Khi nào ảo giác gây hậu quả, khi nào không?
AI sai cũng không thành chuyện lớn. Bạn dùng AI như một nguồn cảm hứng, không phải nguồn sự thật.
Nối dấu hiệu cảnh báo với biện pháp xử lý
Nối mỗi dấu hiệu ở Cột A với biện pháp phù hợp ở Cột B.
Cột A
Cột B
- Không dùng trực tiếp tên người, con số, trích dẫn do AI sinh mà chưa kiểm chứng.
- Không copy bài AI viết thành sản phẩm cuối nếu nội dung có yếu tố sự thật cần xác minh.
- Không coi câu trả lời tự tin là bằng chứng — AI luôn tự tin, kể cả khi sai.
- Ảo giác không phải là 'AI nói dối' — AI được tối ưu để nghe trôi chảy, không phải để đúng sự thật.
- Bốn dạng thường gặp: sự thật bịa, sai ngày/số, trích dẫn bịa, mâu thuẫn logic. Dạng 'trộn sự thật' là khó phát hiện nhất.
- Nhiệt độ (temperature) càng cao, ảo giác càng nhiều. Với tra cứu sự thật, để T thấp.
- Giảm ảo giác bằng RAG (dán tài liệu gốc), cho phép AI nói 'không biết', cross-check, và luôn xác minh trích dẫn.
- Việc rủi ro cao (luật pháp, báo chí, giáo dục, y tế) bắt buộc phải kiểm chứng mọi con số và tên riêng do AI sinh ra.
Kiểm tra hiểu biết
Ảo giác của AI xảy ra vì lý do cốt lõi nào sau đây?