Facebook phạt nặng người dùng không khai báo nội dung AI

Đoàn Thúy Hà

Editor
Thành viên BQT
Với sự bùng nổ mới nhất của công nghệ AIGC, mối đe dọa của công nghệ AI đối với hệ sinh thái dư luận Internet đã đạt đến mức cao chưa từng thấy. Những ngày gần đây, những vụ việc như "cuộc gọi giả Biden" và ảnh DeepFake của các nữ diễn viên nổi tiếng đã gây ra sự quan ngại mạnh mẽ trong dư luận quốc tế.
Trước khi mọi thứ vượt quá tầm kiểm soát, các nền tảng truyền thông xã hội Facebook, Instagram và Threads đã quyết định thực hiện một số nỗ lực để phân biệt nội dung do AI tạo trên nền tảng truyền thông xã hội với đời thực bằng cách xác định và gắn nhãn nội dung AI trên nền tảng.
Facebook phạt nặng người dùng không khai báo nội dung AI

Xác định, phát hiện và dán nhãn​

Meta cho biết trong vài tháng tới, Facebook, Instagram và Threads sẽ cố gắng phát hiện và gắn nhãn cho các bức ảnh được tải lên nền tảng này bằng "thẻ AI".
Vấn đề này nên được chia thành hai cấp độ: hình ảnh AIGC "dựa trên bằng chứng" và nội dung âm thanh và video AI lộn xộn.
Đầu tiên là khu vực hình ảnh có tiêu chuẩn tương đối rõ ràng. Lấy chức năng AI "Wen Sheng Tu" của Meta làm ví dụ. Các hình ảnh được tạo bằng phương pháp này sẽ không chỉ có hình mờ hiển thị ở góc dưới bên trái mà còn có "hình mờ vô hình" trong siêu dữ liệu của hình ảnh .
Facebook phạt nặng người dùng không khai báo nội dung AI
Meta cho biết họ đang phát triển các công cụ có thể xác định hàng loạt các hình mờ như vậy, đặc biệt là các tiêu chuẩn kỹ thuật C2PA và IPTC - có nghĩa là khi các công ty như Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock và các công ty khác thêm siêu dữ liệu vào các công cụ AIGC theo kế hoạch, Meta có thể xác định và chú thích hàng loạt hình ảnh AI do các công ty này tạo ra trên nền tảng truyền thông xã hội.
Facebook phạt nặng người dùng không khai báo nội dung AI
Tất nhiên, sự hợp tác giữa một số gã khổng lồ không thể giải quyết được mọi vấn đề và những kẻ sử dụng AI với mục đích ác ý cũng có cách xóa hình mờ trong ảnh AI.
Nick Clegg, cựu phó thủ tướng Anh và chủ tịch phụ trách các vấn đề toàn cầu và truyền thông tại Meta, nói thêm rằng Meta hiện cũng đang phát triển các bộ phân loại để tự động phát hiện các hình ảnh do AI tạo ra nhưng không có hình mờ dữ liệu. Đồng thời, phòng thí nghiệm AI của Meta mới đây đã chia sẻ một công nghệ hình mờ kỹ thuật số có tên là "chữ ký ổn định" tích hợp trực tiếp cơ chế hình mờ vào bước tạo hình ảnh, điều này sẽ rất có giá trị đối với nhiều mô hình nguồn mở.

Còn video và âm thanh thì sao?​

Meta tiết lộ rằng không giống như tiêu chuẩn "hình mờ vô hình" cho hình ảnh, âm thanh và video do AI tạo ra thiếu sự đồng thuận về vấn đề này nên hiện tại không thể gắn nhãn cho chúng bằng cách phát hiện tín hiệu.
Về vấn đề này, Meta quyết định đưa ra một cơ chế tuyên bố và xử phạt độc lập. Ngoài việc cho phép người dùng tự khai báo video và âm thanh AI, Meta có thể phạt những người dùng cố tình tạo nội dung deepfake và cố tình không báo cáo.
Clegg tuyên bố thêm rằng nếu Meta xác định rằng một số hình ảnh, video hoặc nội dung âm thanh do AI tạo hoặc sửa đổi có nguy cơ đánh lừa công chúng đặc biệt cao về các vấn đề quan trọng, thì Meta có thể thêm nhãn nổi bật hơn nếu thích hợp .
Dù lo ngại về việc “AI gây tiếng vang lớn trong năm bầu cử”, Clegg vẫn tin rằng khả năng xảy ra tình trạng này “càn quét nền tảng Meta” năm nay là không cao. Clegg nói: “Không có khả năng chúng ta sẽ sớm thấy một video hoặc âm thanh hoàn toàn tổng hợp, có ý nghĩa chính trị, tôi chỉ không nghĩ điều đó sẽ xảy ra”.
Clegg cũng đề cập rằng Meta đã thử nghiệm các mô hình ngôn ngữ lớn được đào tạo theo nguyên tắc cộng đồng và cho biết công nghệ này cung cấp một "cơ chế chuyển hướng" hiệu quả để đảm bảo rằng các bài đăng mà người đánh giá nhìn thấy thực sự là những bài đăng cần được đánh giá thủ công.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top