Công cụ đầu độc dữ liệu mới này cho phép các nghệ sĩ chống lại AI sáng tạo

Công cụ có tên Nightshade làm xáo trộn dữ liệu huấn luyện theo những cách có thể gây ra thiệt hại nghiêm trọng cho các mô hình AI tạo hình ảnh.
Công cụ đầu độc dữ liệu mới này cho phép các nghệ sĩ chống lại AI sáng tạo
Tóm tắt nội dung chính:
  1. Nightshade: Công cụ Nightshade đã xuất hiện, mang theo mục tiêu cho các nghệ sĩ trong cuộc chiến chống lại việc sử dụng tác phẩm của họ để đào tạo AI mà không có sự cho phép. Công cụ này có khả năng "đầu độc" dữ liệu huấn luyện, gây ra hậu quả nghiêm trọng cho các mô hình AI tạo hình ảnh, như DALL-E, Midjourney và Stable Diffusion.
  2. Quyền lực quay trở lại nghệ sĩ: Ben Zhao, giáo sư tại Đại học Chicago và nhóm của ông, đã phát triển Nightshade với hy vọng sẽ giúp trả lại quyền lực từ các công ty AI cho các nghệ sĩ. Họ muốn ngăn chặn việc sử dụng tác phẩm của nghệ sĩ mà không có sự cho phép hoặc bồi thường.
  3. Làm hỏng mô hình AI: Nightshade thay đổi dữ liệu huấn luyện một cách tinh tế trước khi nó được đưa vào các mô hình AI. Điều này dẫn đến kết quả đầu ra không thể đoán trước và khiến cho các mô hình tạo ra hình ảnh trở nên hỗn loạn, không hợp lý.
Công cụ Nightshade cũng là một phần của sự phản kháng của các nghệ sĩ trước những vụ kiện về việc thu thập tài liệu cá nhân và thông tin có bản quyền mà không có sự cho phép. Các công ty AI lớn như OpenAI, Meta, Google và Stability AI đang phải đối mặt với những tranh cãi này, nhưng họ chưa có câu trả lời cụ thể về cách họ sẽ xử lý tình huống.
Ngoài Nightshade, nhóm của Ben Zhao cũng đã phát triển công cụ Glaze, giúp nghệ sĩ "che giấu" phong cách cá nhân của họ để ngăn các công ty AI loại bỏ nó. Cả hai công cụ này hoạt động bằng cách thay đổi pixel của hình ảnh một cách tinh tế mà mắt người không thể phát hiện. Nightshade hiện đang được phát triển dưới dạng mã nguồn mở, cho phép những người khác tùy chỉnh và sử dụng nó. Càng nhiều người sử dụng và tạo ra phiên bản riêng của công cụ này, thì nó sẽ càng trở nên mạnh mẽ hơn, gây ra nhiều hại hơn cho các mô hình AI lớn với hàng tỷ hình ảnh trong dữ liệu huấn luyện.
Nightshade khai thác lỗ hổng bảo mật trong các mô hình AI tổng hợp, lỗ hổng này phát sinh từ việc chúng được đào tạo với lượng dữ liệu lớn thu thập từ Internet. Công cụ này làm rối tung các hình ảnh trong dữ liệu này, tạo ra sự nhiễm độc. Các mẫu dữ liệu bị nhiễm độc này có thể gây ra sự trục trặc trong quá trình học tập của mô hình AI, khiến cho các hình ảnh trở nên kỳ quái hoặc vô dụng.
Công việc này đã được thử nghiệm trên các mô hình AI mới nhất và đã tạo ra kết quả kỳ lạ khi mô hình chỉ cung cấp ít dữ liệu bị nhiễm độc. Tuy nhiên, cần hàng nghìn mẫu để gây ra hại cho các mô hình lớn hơn được đào tạo trên hàng tỷ mẫu dữ liệu. Mặc dù có tiềm năng cho lạm dụng, việc thực hiện cuộc tấn công đầu độc dữ liệu trên mô hình AI lớn vẫn đòi hỏi nhiều công sức và nguồn lực.
Những cuộc tấn công này có tiềm năng khiến các công ty AI tôn trọng quyền của nghệ sĩ hơn và sẵn sàng trả tiền bản quyền. Các chính sách từ chối của công ty không đủ để đảm bảo quyền lợi của nghệ sĩ, và Nightshade có thể thay đổi điều này, khiến cho các công ty AI phải suy nghĩ kỹ trước khi lấy tác phẩm của nghệ sĩ mà không có sự đồng ý.
Nguồn: MIT Review
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top