Bias & Fairness
Thiên kiến & Công bằng trong AI
Một mô hình AI dự đoán khả năng trả nợ được train trên dữ liệu 10 năm qua của ngân hàng. Theo bạn, ai sẽ bị đánh giá thấp nhất?
Hãy hình dung AI như một tấm gương chiếu. Nó không tự tạo ra ai, không tự có ý kiến — nó chỉ phản chiếu lại những gì đã xảy ra trong dữ liệu 10 năm qua của công ty bạn.
Nếu 10 năm qua ngân hàng ít duyệt vay cho phụ nữ làm nội trợ, tấm gương sẽ nói: “nội trợ = rủi ro cao”. Nếu công ty công nghệ ít tuyển người trên 40 tuổi, tấm gương sẽ nói: “40+ = ít phù hợp”. Không phải vì tấm gương ác ý — mà vì đó là tất cả những gì nó từng thấy.
Hình minh họa
Kéo thử thanh “tỷ lệ nữ trong dữ liệu” xuống thấp, rồi tăng “mức thiên lệch của mô hình”. Quan sát hai thanh ngang thay đổi.
Mô phỏng AI tuyển dụng học từ dữ liệu lịch sử
Nhiều công ty tin rằng bỏ cột giới tính khỏi dữ liệu là đủ. Thực tế, thông tin giới tính rò rỉ qua tên, trường học, nghề cũ. Chuyển qua lại giữa hai cách làm sạch dữ liệu để so sánh.
Kéo thử giữa hai cách làm sạch dữ liệu. Chú ý cột nào vẫn còn 'ro rỉ' thông tin nhạy cảm.
Kéo từng ví dụ dưới đây vào đúng loại thiên kiến. Đây là 8 tình huống có thật trong môi trường văn phòng Việt Nam.
Kéo từng ví dụ vào đúng loại thiên kiến. Một mục chỉ thuộc một loại.
Trong bốn tình huống văn phòng sau, tình huống nào có RỦI RO PHÁP LÝ VÀ ĐẠO ĐỨC CAO NHẤT khi dùng AI?
Giải thích
Bản chất: Dữ liệu huấn luyện không đại diện cho toàn bộ dân số thật. AI chỉ 'biết' những nhóm nó từng thấy.
Ví dụ: Mô hình tuyển dụng train 90% từ ứng viên Hà Nội & TP.HCM, đoán sai với miền Trung.
Bản chất: Dữ liệu chính xác, nhưng phản ánh một xã hội bất bình đẳng. AI tái tạo quá khứ đó.
Ví dụ: Ngân hàng 10 năm qua duyệt vay ít cho phụ nữ — AI học rằng 'phụ nữ = rủi ro'.
Bản chất: Cách đo 'kết quả' sai lệch giữa các nhóm. Thước đo không phải là sự thật.
Ví dụ: Đánh giá năng suất bằng "giờ online" — bất lợi cho ai làm việc hiệu quả nhưng ngắn thời gian.
Bản chất: AI dùng đúng ở ngữ cảnh này lại sai ở ngữ cảnh khác. Train một nơi, dùng một nẻo.
Ví dụ: Nhận diện khuôn mặt train ở Mỹ, lắp ở Việt Nam sai nhiều hơn với người bản địa.
Không có một định nghĩa “công bằng” duy nhất. Có ba cách đo phổ biến, mỗi cách trả lời một câu hỏi khác nhau. Dưới đây là cách chúng hoạt động trên cùng một mô hình tuyển dụng.
Đồng đều tỷ lệ (Demographic Parity)
Tỷ lệ được chọn bằng nhau, bất kể năng lực
Đồng đều cơ hội (Equal Opportunity)
Trong số người THẬT SỰ phù hợp, tỷ lệ được AI chọn bằng nhau
Đồng đều sai sót (Equalized Odds)
Cả tỷ lệ chọn đúng và chọn sai phải bằng nhau
Nối từng kỹ thuật với tình huống phù hợp. Mỗi kỹ thuật giải quyết một lớp vấn đề khác nhau — không có viên đạn bạc.
Bấm vào một ô Cột A, rồi bấm vào ô Cột B tương ứng.
Cột A
Cột B
Một sự thật toán học khó chịu: không thể đồng thời đạt cả ba tiêu chí công bằng (đồng đều tỷ lệ, đồng đều cơ hội, đồng đều sai sót) khi tỷ lệ nền của các nhóm khác nhau. Tổ chức BUỘC phải chọntiêu chí ưu tiên và ghi lại lý do — đây là trách nhiệm đạo đức, không phải bài toán kỹ thuật.
- AI là tấm gương chiếu quá khứ — quá khứ bất bình đẳng thì AI cũng bất bình đẳng, chỉ có điều ở tầm công nghiệp.
- Bỏ cột 'giới tính' không làm AI công bằng — tên, trường, nghề cũ vẫn rò rỉ thông tin. Phải đo kết quả, không che dữ liệu.
- Bốn loại thiên kiến: lấy mẫu (sampling), lịch sử (historical), đo lường (measurement), triển khai (deployment). Mỗi loại có cách xử lý riêng.
- Ba cách đo công bằng trả lời ba câu hỏi khác nhau — không thể đạt tất cả cùng lúc, phải chọn và ghi lại lý do.
- Ở Việt Nam: Nghị định 13/2023, Luật An ninh mạng, Điều 8 Bộ luật Lao động đều áp dụng cho quyết định do AI đưa ra. Trách nhiệm cuối cùng vẫn thuộc về doanh nghiệp.
Kiểm tra hiểu biết
Vì sao AI có thể mang thiên kiến dù bản thân nó 'không có ý thức'?