Chỉ 250 tài liệu độc hại cũng đủ “đầu độc” ChatGPT và Gemini?

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn có từng nghĩ chỉ vài trăm tài liệu độc hại trên internet cũng đủ "bẻ lái" một mô hình AI khổng lồ như ChatGPT hay Gemini?

Khi AI học nhầm chỉ vì 250 tài liệu​

Một nhóm nghiên cứu từ Viện An ninh AI của Anh, Viện Alan Turing và công ty Anthropic đã phát hiện một điều đáng lo: chỉ cần khoảng 250 tài liệu bị “đầu độc” trong dữ liệu huấn luyện là có thể tạo ra một backdoor – kiểu lỗ hổng ẩn khiến mô hình trả về kết quả vô nghĩa hoặc thực hiện hành vi bất thường khi gặp đúng cụm kích hoạt.

1760323664442.png

Lý do nằm ở cách các mô hình ngôn ngữ lớn (LLM) được huấn luyện. Phần lớn dữ liệu đầu vào đến từ các nguồn công khai như blog, trang cá nhân, diễn đàn, Wikipedia. Điều này mở ra cơ hội cho người xấu cố tình cài vào đó những đoạn văn chứa “câu thần chú” để mô hình học sai hành vi.

Anthropic mô tả rất rõ: kẻ tấn công chỉ cần chèn một cụm từ cụ thể vào nội dung trên mạng. Khi cụm này xuất hiện trong một câu lệnh gửi tới AI, nó có thể kích hoạt phản hồi ẩn, chẳng hạn như rò rỉ dữ liệu nhạy cảm hoặc xuất ra đoạn chữ vô nghĩa.

Điều bất ngờ nhất: quy mô không quyết định mức độ an toàn​

Hai nhà nghiên cứu từ Viện Alan Turing, TS Vasilios Mavroudis và TS Chris Hicks, cho biết điều khiến họ ngạc nhiên là số lượng tài liệu cần để gây nhiễm gần như không đổi, bất kể kích thước mô hình hay lượng dữ liệu huấn luyện lớn tới đâu. Con số quanh mức 250 là đủ để tạo tác động.

Họ cho rằng điều này khiến khả năng tấn công thực tế cao hơn nhiều so với ước tính trước đây. Ví dụ, một người có thể tạo ra vài trăm bài viết giả trên Wikipedia, chỉ chờ được thu thập vào dữ liệu huấn luyện vòng sau.

Nghiên cứu này được công bố dưới dạng bản tiền in với tiêu đề “Poisoning attacks on LLMs require a near-constant number of poison samples”. Hiện phía Google và OpenAI chưa phản hồi.

Vậy trong tương lai, các nền tảng AI có còn đủ tin cậy để ứng dụng vào giáo dục, y tế, pháp lý hoặc quốc phòng? Và nếu một ngày nào đó AI tại Việt Nam cũng học từ nguồn mở trên mạng trong nước, liệu chúng ta có nghĩ tới kịch bản “nhiễm độc” tương tự?

Nguồn: https://www.aol.com/articles/chatgpt-other-ai-models-poisoned-160719084.html
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NoaS0yNTAtdGFpLWxpZXUtZG9jLWhhaS1jdW5nLWR1LWRhdS1kb2MtY2hhdGdwdC12YS1nZW1pbmkuNzEyMDAv
Top