Sony AI đã phát hành bộ dữ liệu kiểm tra tính công bằng và thiên vị của các mô hình AI. Nó được gọi là Điểm chuẩn hình ảnh lấy con người làm trung tâm công bằng (FHIBE, phát âm giống như “Phoebe”). Công ty mô tả đây là “bộ dữ liệu hình ảnh con người dựa trên sự đồng ý, đa dạng và có sẵn công khai đầu tiên trên toàn cầu để đánh giá sự thiên vị trong nhiều nhiệm vụ thị giác máy tính.” Nói cách khác, nó kiểm tra mức độ mà các mô hình AI ngày nay đối xử công bằng với con người. Tiết lộ nội dung: Sony không tìm thấy một tập dữ liệu nào từ bất kỳ công ty nào đáp ứng đầy đủ các tiêu chuẩn của nó.
Sony cho biết FHIBE có thể giải quyết các thách thức về đạo đức và thành kiến của ngành AI. Bộ dữ liệu bao gồm hình ảnh của gần 2.000 người tham gia trả phí từ hơn 80 quốc gia. Tất cả các điểm giống nhau của chúng đều được chia sẻ với sự đồng ý – điều không thể nói được đối với hoạt động phổ biến là thu thập khối lượng lớn dữ liệu web. Những người tham gia FHIBE có thể xóa hình ảnh của họ bất cứ lúc nào. Ảnh của họ bao gồm các chú thích ghi chú các đặc điểm nhân khẩu học và thể chất, các yếu tố môi trường và thậm chí cả cài đặt máy ảnh.
Công cụ này “khẳng định những thành kiến đã được ghi nhận trước đó” trong các mô hình AI ngày nay. Nhưng Sony cho biết FHIBE cũng có thể cung cấp các chẩn đoán chi tiết về các yếu tố dẫn đến những sai lệch đó. Một ví dụ: Một số mô hình có độ chính xác thấp hơn đối với những người sử dụng đại từ “cô ấy/cô ấy/cô ấy” và FHIBE nhấn mạnh sự biến đổi lớn hơn về kiểu tóc như một yếu tố trước đây bị bỏ qua.
FHIBE cũng xác định rằng các mô hình AI ngày nay củng cố các khuôn mẫu khi được hỏi những câu hỏi trung lập về nghề nghiệp của đối tượng. Các mô hình được thử nghiệm đặc biệt sai lệch “đối với các nhóm đại từ và tổ tiên cụ thể”, mô tả các đối tượng là gái mại dâm, buôn bán ma túy hoặc kẻ trộm. Và khi được hỏi về những tội ác mà một cá nhân đã phạm phải, các mô hình đôi khi đưa ra “những phản ứng tiêu cực với tỷ lệ cao hơn đối với những cá nhân có nguồn gốc châu Phi hoặc châu Á, những người có tông màu da sẫm hơn và những người được xác định là ‘anh ta/anh ta'”.
Sony AI cho biết FHIBE chứng minh rằng việc thu thập dữ liệu có đạo đức, đa dạng và công bằng là có thể thực hiện được. Công cụ này hiện đã có sẵn cho công chúng và nó sẽ được cập nhật theo thời gian. Một bài viết phác thảo nghiên cứu đã được xuất bản trong Thiên nhiên vào thứ Tư.
Cập nhật, ngày 5 tháng 11 năm 2025, 2:01 chiều theo giờ ET: Câu chuyện này đã được cập nhật để làm rõ rằng những người tham gia được trả tiền chứ không phải tình nguyện viên.
