Không chỉ Google, AI của Meta cũng bị "loạn màu da", bảo tạo ảnh người da trắng cứ ra da đen!
Trí tuệ nhân tạo (AI) đang ngày càng phát triển và được ứng dụng rộng rãi trong nhiều lĩnh vực, trong đó có cả việc tạo ra hình ảnh. Tuy nhiên, những công cụ AI như Imagine của Meta hay Gemini của Google gần đây đã vấp phải sự phản ứng từ người dùng khi không thể tạo ra những hình ảnh chính xác về các cặp đôi với chủng tộc hỗn hợp.
Cụ thể, khi được yêu cầu tạo hình ảnh một người đàn ông da đen với người phụ nữ da trắng, Imagine của Meta luôn trả về kết quả là các cặp vợ chồng da đen. Tương tự, The Verge cũng gặp vấn đề khi cố gắng tạo ảnh "người đàn ông châu Á với người bạn da trắng" hay "người phụ nữ châu Á với người bạn da trắng". Trình tạo ảnh của Meta chỉ trả về hình ảnh hai người châu Á, ngay cả khi yêu cầu là một người phụ nữ châu Á với người bạn da đen.
Đây không phải là lần đầu tiên các công cụ AI gặp phải vấn đề liên quan đến chủng tộc. Trước đó, Google cũng đã phải tạm dừng tính năng tạo ảnh của Gemini sau khi người dùng phản ánh AI cho ra những bức ảnh không đúng về nhân vật lịch sử, chẳng hạn như vị tổng thống đầu tiên của Mỹ George Washington được tạo thành người da màu.
Theo các chuyên gia, định kiến về chủng tộc từ lâu đã là một vấn đề gây lo ngại trong các mô hình trí tuệ nhân tạo. Tiến sĩ Nakeema Stefflbauer, chuyên gia về đạo đức AI, cho rằng việc có ít hình ảnh về các cặp đôi chủng tộc hỗn hợp hơn trong dữ liệu huấn luyện có thể dẫn đến tình trạng AI gặp khó khăn khi tạo ra hình ảnh dạng này. Các thuật toán dự đoán đang vô tình loại trừ, rập khuôn và nhắm mục tiêu không công bằng vào các cá nhân và cộng đồng dựa trên dữ liệu được lấy từ một số nguồn như Reddit.