Khoai@
Đã có một một cơn thịnh nộ như lên đồng khi vào ngày hôm qua, nhiều người dùng Facebook sau khi xem video có hình ảnh người da đen, thì đã được hỏi có muốn "xem tiếp video về các loài động vật linh trưởng hay không".
Đây là câu hỏi gợi ý dựa theo hệ thống đề xuất của trí tuệ nhân tạo (AI) mà Facebook đang sử dụng. Như vậy, AI Facebook không biết vô tình hay hữu ý đã dán nhãn (label) người da đen thành "Loài linh trưởng".
Sau khi sự việc xảy ra, Facebook nói với BBC News rằng "đây là một lỗi rõ ràng không thể chấp nhận được" và Facebook đã vô hiệu hóa hệ thống và tiến hành điều tra.
Đại diện của Facebook nói: "Chúng tôi xin lỗi bất kỳ ai có thể đã thấy những đề xuất mang tính xúc phạm này."
Đây là vụ mới nhất trong một loạt các lỗi đã xảy ra trong thời gian dài, làm xuất hiện quan ngại về vấn đề thành kiến sắc tộc trong trí tuệ nhân tạo (AI).
Trước đó, vào năm 2015, ứng dụng Google's Photos đã dán nhãn hình ảnh người da đen là "gorilla" (khỉ đột). Sự việc đáng tiếc xảy ra khiến Google đã "bị sốc và chân thành xin lỗi", mặc dù việc chỉnh sửa, theo Wired đăng tải vào năm 2018 là chỉ đơn giản là kiểm duyệt việc tìm kiếm hình ảnh và các nhãn dán (label) cho từ "gorilla" (khỉ đột).
Tương tự như thế, vào tháng 5, thì Twitter cũng thừa nhận các vấn đề thành kiến sắc tộc theo cách mà "thuật toán quan trọng nhất" đã cắt những phần xem trước của hình ảnh.
Đại diện Facebook nói với BBC News rằng, đề xuất "động vật linh trưởng" là "một lỗi thuật toán của Facebook" và không phản ánh nội dung của video đó. "Chúng tôi đã vô hiệu hóa toàn bộ tính năng đề xuất chủ đề ngay sau khi chúng tôi nhận ra điều gì đang diễn ra để điều tra nguyên nhân và ngăn chặn vụ việc tương tự lặp lại.".
Lỗi nhận diện hình ảnh để dán nhãn của Facebook chỉ là một phần trong số nhiều lỗi ứng dụng trí tuệ nhân tạo của Facebook trong ứng xử với người dùng bên cạnh những phán đoán và phán quyết sai lầm.
Không có nhận xét nào:
Đăng nhận xét