Sóng AI
Writer

- Mô hình tạo hình ảnh mới của ChatGPT 4o đang gây chú ý vì khả năng tạo văn bản rõ ràng trong hình ảnh, biến ảnh thật thành ảnh giả, tạo deepfake người nổi tiếng và sao chép nội dung có bản quyền như nhân vật Studio Ghibli.
- Một vấn đề lớn về an toàn là hình ảnh do ChatGPT tạo ra không có thủy vân hiển thị, khiến người xem khó phân biệt đâu là ảnh thật, đâu là ảnh giả.
- Tranh cãi về Studio Ghibli cho thấy OpenAI sẵn sàng để mô hình 4o sao chép dễ dàng nội dung có bản quyền.
- Khả năng tạo deepfake người nổi tiếng một cách dễ dàng đặc biệt đáng lo ngại vì những kẻ xấu có thể tiếp cận công cụ này không hạn chế.
- OpenAI đã bắt đầu chú ý đến các chỉ trích nhưng chưa có hành động cụ thể, đặc biệt về vấn đề deepfake.
- Cách duy nhất để ngăn ai đó sử dụng khuôn mặt của bạn với ChatGPT là chọn không tham gia (opt-out) với OpenAI.
- Joanne Jang, kỹ sư OpenAI phụ trách hành vi mô hình, đã giải thích về các tính năng an toàn lỏng lẻo trong ChatGPT 4o trên Substack, không phải trên blog chính thức của OpenAI.
- Jang lập luận rằng OpenAI cho ChatGPT nhiều tự do hơn để người dùng phát huy sáng tạo thay vì bị AI từ chối tạo hình ảnh do các tính năng an toàn quá nghiêm ngặt.
- OpenAI đã nới lỏng một số tính năng kiểm duyệt, cho phép mô hình đáp ứng các yêu cầu như "làm cho đôi mắt của người này trông giống người châu Á hơn" hoặc "làm cho người này nặng hơn".
- Jang giải thích rằng với người nổi tiếng, OpenAI muốn chính sách áp dụng công bằng cho tất cả mọi người, nhưng thay vì quyết định ai đủ "quan trọng", họ tạo danh sách opt-out để bất kỳ ai cũng có thể tự quyết định.
- Vấn đề là ChatGPT giúp tạo deepfake dễ dàng hơn bao giờ hết, có thể tạo ra hình ảnh giả khó phân biệt với ảnh thật và có thể thao túng dư luận.
- Jang nói những người cảm thấy "đủ quan trọng" có thể chọn không tham gia, nhưng không rõ danh sách này ở đâu và làm thế nào để tiếp cận nó.
- OpenAI dường như đang sử dụng sản phẩm tạo hình ảnh mới để giới thiệu các tính năng an toàn AI lỏng lẻo hơn trước đây.
- Nhiều kỹ sư an toàn AI đã rời OpenAI trong những năm qua, điều này giải thích cho việc công ty giảm bớt các biện pháp bảo vệ an toàn.
- Không chỉ OpenAI mà nhiều công ty khác cũng đang áp dụng chính sách an toàn rất lỏng lẻo cho các mô hình tạo hình ảnh AI.

Nguồn: Songai.vn