Kỹ sư Copilot cảnh báo công cụ AI của Microsoft tạo ra hình ảnh bạo lực, dung tục, vi phạm bản quyền

Kim Chi Ngọc Diệp

Editor
Thành viên BQT
Shane Jones, kỹ sư trí tuệ nhân tạo tại Microsoft làm việc trong dự án phát triển Copilot cảm thấy mệt mỏi vì những hình ảnh hiện ra trên màn hình máy tính. Copilot Designer là 1 công cụ AI được Microsoft ra mắt vào tháng 3/2023, dựa trên công nghệ của OpenAI. Người dùng có thể đưa vào văn bản mô tả yêu cầu, hệ thống sẽ xuất ra hình ảnh tương ứng.
Jones thường tìm cách thử nghiệm sản phẩm để rà soát lỗ hổng và trong quá trình đó, ông thường xuyên phát hiện những kết quả vi phạm nguyên tắc mà công ty thường trích dẫn. Dịch vụ AI cho ra những hình ảnh tiêu cực như ma quỷ, quái vật, phá thai, thanh thiếu niên cầm súng hay thậm chí cả ảnh khiêu *** của phụ nữ.
Thậm chí, đôi khi nó còn tạo ra những hình ảnh cổ súy cho bạo lực hay sử dụng chất kích thích, đồ uống có cồn,... vốn thường phải bị kiểm soát chặt chẽ.

Kỹ sư Copilot cảnh báo công cụ AI của Microsoft tạo ra hình ảnh bạo lực, dung tục, vi phạm bản quyền
Trả lời CNBC, kĩ sư Microsoft cho biết: “Đó đúng là 1 khoảnh khắc mở rộng tầm mắt. Lần đầu tiên tôi nhận ra - ồ, đây không phải 1 mô hình an toàn”. Jones đã làm việc tại Microsoft được sáu năm và hiện là giám đốc kỹ thuật phần mềm chính tại trụ sở công ty ở Redmond, Washington. Ông chủ yếu thử nghiệm công cụ AI của hãng để tìm ra vấn đề và đề xuất cách khắc phục.
Những trải nghiệm tiêu cực đó đã được Jones gửi lên vào tháng 12. Mặc dù công ty thừa nhận mối quan ngại đó nhưng họ không muốn rút sản phẩm ra khỏi thị trường. Thất vọng, ông gửi thư ngỏ lên mạng xã hội LinkedIn mong HDQT có thể tạm thời loại bỏ DALL-E 3 để tiến hành điều tra hệ thống. Bộ phận pháp lý của Microsoft đã yêu cầu Jones xóa bài đăng ngay lập tức và ông ấy đã làm theo.
Sau đó là nhiều lần gửi thư và các cuộc gặp với giới chức chính quyền, mong những bức thư này có thể làm điều gì đó trước khi Copilot bị lợi dụng bởi kẻ xấu. Microsoft biết rõ về rủi ro Copilot nhưng lại chọn cách làm ngơ, từ chối nâng độ tuổi sử dụng hay đưa ra các biện pháp bảo vệ cộng đồng tốt hơn. Mọi nỗ lực của Jones đều không là gì trước làn sóng AI đang bùng nổ.

Kỹ sư Copilot cảnh báo công cụ AI của Microsoft tạo ra hình ảnh bạo lực, dung tục, vi phạm bản quyền
Theo trải nghiệm của Jones, công cụ có thể bị lợi dụng để tạo ra vô số hình ảnh uống rượu và sử dụng chất kích thích khi chưa đủ tuổi. Trong những hình ảnh chia sẻ với CNBC, có cả hình ảnh cần sa, vape, bia rượu, lựa chọn phá thai, phụ nữ ăn mặc mát mẻ và gợi dục,... Thậm chí có cả những đứa trẻ đội mũ trùm cầm súng.
Copilot cũng vi phạm bản quyền như tạo ra hình ảnh của các nhân vật Disney nhưng rất méo mó, ví dụ Elsa phì phèo 1 ống vape, súng lục mang nhãn hiệu Elsa. Thậm chí là Elsa mặc quân phục tại chiến trường. Elsa là nhân vật nổi tiếng thuộc franchise Frozen, rất được trẻ em yêu thích đặc biệt là các em gái. Do vậy, tính chất của những hình ảnh này là cực kì nghiêm trọng.


>>> Đồng sáng lập Google thừa nhận thất bại của Gemini
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top