Hallucination in Legal Research
Ảo giác AI trong Nghiên cứu Pháp lý
Công ty nào đang ứng dụng Ảo giác AI?
Tháng 3 năm 2023, luật sư Steven Schwartz— người đã hành nghề hơn 30 năm tại New York — nộp một bản kiến nghị pháp lý cho Tòa án Liên bang Quận Nam New York (U.S. District Court, Southern District of New York) trong vụ Mata v. Avianca.
Bản kiến nghị trích dẫn sáu vụ án tiền lệ(precedent — phán quyết trước đó được dùng làm căn cứ pháp lý) để bảo vệ thân chủ. Vấn đề: cả sáu vụ án đều không tồn tại. Chúng được ChatGPT(trợ lý trò chuyện của OpenAI) bịa ra hoàn toàn — với tên vụ án, số hiệu trích dẫn, và cả trích dẫn giả từ các thẩm phán giả.
Dòng thời gian vụ Mata v. Avianca (2023)
Steven Schwartz — luật sư hành nghề 30 năm — nhờ ChatGPT tìm án lệ cho vụ Mata v. Avianca.
ChatGPT tạo ra 6 vụ án giả: Varghese v. China Southern Airlines, Martinez v. Delta, Miller v. United... với đầy đủ số hiệu, tên tòa, năm phán quyết.
Luật sư Peter LoDuca ký và nộp bản kiến nghị 10 trang cho Tòa án Liên bang Quận Nam New York, chứa đầy trích dẫn án lệ bịa.
Luật sư hãng Avianca tra cứu trên LexisNexis và Westlaw — không vụ án nào tồn tại. Báo cho tòa.
Thẩm phán P. Kevin Castel kết luận luật sư hành động với 'thiếu thiện chí chủ quan'. Phạt theo Rule 11.
Vụ việc được đưa tin trên CNN, BBC, Reuters, New York Times. Trở thành ví dụ kinh điển trong mọi khóa học về AI cho luật sư.
Vấn đề công ty cần giải quyết
Ảo giác (hallucination) là hiện tượng mô hình AI tạo ra thông tin có vẻ chính xác nhưng hoàn toàn bịa đặt. Trong lĩnh vực pháp lý, mỗi trích dẫn án lệ phải dẫn đến một bản án thực sự— có thẩm phán thực, tòa án thực, phán quyết thực — vì luật sư và thẩm phán dựa vào đó để ra quyết định ảnh hưởng đến quyền lợi con người.
Khi AI bịa ra các vụ án nghe rất thuyết phục nhưng không hề có thật, nó phá vỡ nền tảng tin cậy của hệ thống tư pháp. Người luật sư có nghĩa vụ xác minh(duty to verify) — và đây chính là nơi công nghệ gặp đạo đức nghề nghiệp.
Cùng một câu trả lời của AI, hai cách xử lý — hai kết quả khác nhau hoàn toàn.
- Hỏi ChatGPT “Có án lệ tương tự không?”
- AI trả lời kèm 6 vụ án, số hiệu, tên tòa.
- Luật sư hỏi lại: “Có chắc không?” — AI trả lời “Có, các vụ án có trên LexisNexis”.
- Copy các trích dẫn vào bản kiến nghị.
- Nộp cho tòa.
Cách Ảo giác AI giải quyết vấn đề
Luật sư đặt câu hỏi cho ChatGPT.Steven Schwartz thuộc hãng Levidow, Levidow & Oberman sử dụng ChatGPT để tìm án lệ liên quan đến vụ kiện thương tích hàng không của thân chủ Roberto Mata chống hãng Avianca. Schwartz chưa từng dùng ChatGPT cho nghiên cứu pháp lý trước đó.
ChatGPT bịa ra sáu án lệ. AI tạo ra sáu trích dẫn án lệ bịa đặt, gồm Varghese v. China Southern Airlines, Martinez v. Delta Airlines, Miller v. United Airlines— với đầy đủ số hiệu, tên tòa, năm phán quyết. Khi Schwartz hỏi xác nhận, ChatGPT khẳng định các vụ án “tồn tại trên LexisNexis và Westlaw”.
Tòa phát hiện gian lận.Luật sư của Avianca không tìm thấy bất kỳ vụ án nào trong cơ sở dữ liệu pháp lý và thông báo cho tòa. Thẩm phán P. Kevin Castel yêu cầu nộp bản sao các bản án. Tòa phát hiện tất cả là “các quyết định tư pháp giả với trích dẫn giả và nội dung giả”.
Xử phạt theo Quy tắc 11.Ngày 22/6/2023, Thẩm phán Castel ban hành lệnh xử phạt theo Rule 11 — quy tắc liên bang yêu cầu luật sư xác minh tính chính xác của mọi hồ sơ. Tòa phạt Peter LoDuca, Steven Schwartz, và hãng luật 5.000 đô-la. Các luật sư bị yêu cầu gửi thư xin lỗi đến các thẩm phán bị gán tên sai.
Xem tường thuật từng bước như một bộ phim
Yêu cầu: 'Tìm án lệ thương tích hàng không theo Công ước Montreal'
Steven Schwartz gõ một câu hỏi chuyên ngành vào ChatGPT. Ông chưa từng dùng ChatGPT cho công việc pháp lý trước đó, nhưng tin nó là “một công cụ tìm kiếm siêu thông minh”.
Con số thật
- 2024 - Michael Cohen (Mỹ): cựu luật sư của Donald Trump nộp hồ sơ tòa án chứa 3 án lệ bịa do AI Google Bard sinh.
- 2024 - Colorado: luật sư Zachariah Crabill bị đình chỉ hành nghề 1 năm sau khi dùng ChatGPT bịa án lệ cho một vụ dân sự.
- 2024 - British Columbia (Canada): luật sư Chong Ke bị phạt chi phí khi nộp hồ sơ với án lệ bịa do AI.
Xu hướng rõ: chỉ riêng năm 2023-2024 đã có hàng chục ca tương tự được báo cáo trên thế giới. Kịch bản luôn giống nhau: luật sư tin AI, không xác minh, bị tòa phát hiện.
Nếu không có Ảo giác AI, app sẽ ra sao?
Hãy tưởng tượng hai thế giới song song: một nơi ảo giác của AI không tồn tại, và một nơi luật sư Schwartz biết về nó từ đầu. Cả hai đều dẫn tới kết cục tốt hơn hiện thực.
Trong cả hai, nghĩa vụ xác minh của luật sư vẫn là nguyên tắc cốt lõi.
- Dùng ChatGPT để brainstorm khung pháp lý, không để sinh trích dẫn.
- Mọi án lệ AI đề xuất đều được mở LexisNexis kiểm tra trước khi tin.
- AI trở thành trợ lý nâng năng suất — không thay thế nghĩa vụ nghề nghiệp.
Kết cục: Không có tiền phạt, không có phóng sự CNN, không có thư xin lỗi các thẩm phán. Vụ kiện được xử lý bình thường dựa trên án lệ thật.
Câu chuyện Mata v. Avianca khép lại với một bài học đơn giản đến mức gần như hiển nhiên — nhưng đã trở nên hiển nhiên bằng cái giá 5.000 đô-la và danh tiếng 30 năm hành nghề: