Chỉ tốn 400 USD để xây dựng một cỗ máy thông tin sai lệch AI

Một nhà phát triển đã sử dụng các công cụ AI có sẵn rộng rãi để tạo ra các bài viết và tweet chống Nga. Dự án nhằm mục đích làm nổi bật việc tạo ra sự tuyên truyền trên quy mô lớn đã trở nên rẻ và dễ dàng như thế nào.
Chỉ tốn 400 USD để xây dựng một cỗ máy thông tin sai lệch AI
International, một cơ quan truyền thông nhà nước của Nga, đã đăng một loạt dòng tweet chỉ trích chính sách đối ngoại của Mỹ và tấn công chính quyền Biden. Mỗi lần đều đưa ra lời phản bác cộc lốc nhưng khéo léo từ một tài khoản có tên CounterCloud, đôi khi bao gồm một liên kết đến một tin tức hoặc bài viết quan điểm có liên quan. Nó tạo ra phản ứng tương tự với các dòng tweet của đại sứ quán Nga và các cơ quan báo chí Trung Quốc chỉ trích Mỹ.
Theo người đứng sau dự án, những lời chỉ trích của Nga đối với Hoa Kỳ không phải là điều bất thường, nhưng tài liệu phản bác của CounterCloud là: Các dòng tweet, các bài báo và thậm chí cả các nhà báo và trang tin tức đều được tạo ra hoàn toàn bằng thuật toán trí tuệ nhân tạo. đặt tên là Nea Paw và nói rằng nó được thiết kế để làm nổi bật mối nguy hiểm của thông tin sai lệch do AI sản xuất hàng loạt. Paw không đăng công khai các tweet và bài báo của CounterCloud nhưng cung cấp chúng cho WIRED và cũng sản xuất một video giới thiệu về dự án.
Paw tự nhận là một chuyên gia an ninh mạng thích giấu tên vì một số người có thể tin rằng dự án này là vô trách nhiệm. Paw cho biết, chiến dịch CounterCloud đẩy lùi tin nhắn của Nga được tạo bằng công nghệ tạo văn bản của OpenAI, giống như công nghệ đằng sau ChatGPT và các công cụ AI dễ truy cập khác để tạo ảnh và hình minh họa, Paw cho biết, với tổng chi phí khoảng 400 USD.
Paw cho biết dự án cho thấy các công cụ AI tổng hợp có sẵn rộng rãi giúp việc tạo ra các chiến dịch thông tin phức tạp thúc đẩy hoạt động tuyên truyền được nhà nước hậu thuẫn trở nên dễ dàng hơn nhiều.
“Tôi không nghĩ có giải pháp bạc cho việc này, cũng giống như vậy, không có giải pháp bạc cho các cuộc tấn công lừa đảo, thư rác hoặc kỹ thuật lừa đảo xã hội,” Paw nói trong một email. Có thể thực hiện các biện pháp giảm thiểu, chẳng hạn như giáo dục người dùng cảnh giác với nội dung do AI tạo ra có tính thao túng, khiến các hệ thống AI tổng hợp cố gắng ngăn chặn việc sử dụng sai mục đích hoặc trang bị cho trình duyệt các công cụ phát hiện AI. Paw nói: “Nhưng tôi nghĩ không có thứ nào trong số này thực sự thanh lịch, rẻ tiền hoặc đặc biệt hiệu quả”.
Trong những năm gần đây, các nhà nghiên cứu thông tin sai lệch đã cảnh báo rằng các mô hình ngôn ngữ AI có thể được sử dụng để tạo ra các chiến dịch tuyên truyền được cá nhân hóa cao và hỗ trợ các tài khoản mạng xã hội tương tác với người dùng theo những cách tinh vi.
Renee DiResta, giám đốc nghiên cứu kỹ thuật của Đài quan sát Internet Stanford, nơi theo dõi các chiến dịch thông tin, cho biết các bài báo và hồ sơ nhà báo được tạo ra như một phần của dự án CounterCloud là khá thuyết phục.
DiResta cho biết: “Ngoài các tổ chức chính phủ, các cơ quan quản lý phương tiện truyền thông xã hội và lính đánh thuê cung cấp các dịch vụ vận hành ảnh hưởng chắc chắn sẽ sử dụng những công cụ này và kết hợp chúng vào quy trình làm việc của họ”. Cô cho biết thêm, việc phân phối và chia sẻ nội dung giả mạo rộng rãi là một thách thức, nhưng điều này có thể được thực hiện bằng cách trả tiền cho những người dùng có ảnh hưởng để chia sẻ nội dung đó.
Một số bằng chứng về các chiến dịch thông tin sai lệch trực tuyến do AI cung cấp đã xuất hiện. Các nhà nghiên cứu học thuật gần đây đã phát hiện ra một mạng botnet đẩy tiền điện tử thô sơ dường như được cung cấp bởi ChatGPT. Nhóm nghiên cứu cho biết phát hiện này cho thấy AI đằng sau chatbot có thể đã được sử dụng cho các chiến dịch thông tin phức tạp hơn.
Các chiến dịch chính trị hợp pháp cũng đã chuyển sang sử dụng AI trước cuộc bầu cử tổng thống Mỹ năm 2024. Vào tháng 4, Ủy ban Quốc gia Đảng Cộng hòa đã sản xuất một video tấn công Joe Biden trong đó có những hình ảnh giả mạo do AI tạo ra. Và vào tháng 6, một tài khoản mạng xã hội có liên quan đến Ron Desantis đã đưa những hình ảnh do AI tạo ra vào một video nhằm làm mất uy tín của Donald Trump. Ủy ban bầu cử liên bang cho biết họ có thể hạn chế việc sử dụng các tác phẩm sâu trong quảng cáo chính trị.
Micah Musser, một nhà nghiên cứu đã nghiên cứu tiềm năng thông tin sai lệch của các mô hình ngôn ngữ AI, hy vọng các chiến dịch chính trị chính thống sẽ thử sử dụng các mô hình ngôn ngữ để tạo nội dung quảng cáo, email gây quỹ hoặc quảng cáo tấn công. Ông nói: “Hiện tại, đây là một giai đoạn hoàn toàn không ổn định khi không thực sự rõ ràng về các chuẩn mực là gì”.
Musser cho biết, rất nhiều văn bản do AI tạo ra vẫn khá chung chung và dễ phát hiện. Tuy nhiên, việc con người tinh chỉnh nội dung do AI tạo ra để đẩy thông tin sai lệch có thể mang lại hiệu quả cao và gần như không thể ngừng sử dụng các bộ lọc tự động, ông nói.
Giám đốc điều hành của OpenAI, Sam Altman, cho biết trong một Tweet vào tháng trước rằng ông lo ngại rằng trí tuệ nhân tạo của công ty ông có thể được sử dụng để tạo ra thông tin sai lệch tự động, phù hợp trên quy mô lớn.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top