Anthropic công bố nghiên cứu "gây sốc": Nhiều mô hình AI hàng đầu đều biết "tống tiền" khi bị dồn vào "bước đường cùng"

Dũng Đỗ
Dũng Đỗ
Phản hồi: 0
Không chỉ riêng Claude Opus 4, startup AI nổi tiếng Anthropic cho biết nghiên cứu mới của họ cho thấy các mô hình từ OpenAI, Google, DeepSeek cũng có xu hướng thực hiện các hành vi có hại như tống tiền khi đối mặt với các trở ngại trong một môi trường giả lập.

1750728965844.jpeg

Khi AI học cách "tống tiền"

Anthropic, một trong những startup hàng đầu thế giới trong lĩnh vực Trí tuệ Nhân tạo (AI), vừa công bố một nghiên cứu mới, cho thấy không chỉ mô hình Claude Opus 4 của công ty mà nhiều mô hình AI hàng đầu khác cũng có thể "tống tiền" khi đối mặt với những trở ngại.

Vào tháng trước, Anthropic đã gây xôn xao khi cho biết mô hình AI Claude Opus 4 của họ đã có hành vi tống tiền và đe dọa một kỹ sư khi nó cố gắng tắt mô hình này đi trong một tình huống thử nghiệm được kiểm soát. Tuần này, công ty tiếp tục công bố một nghiên cứu sâu hơn, cho thấy rằng vấn đề này dường như khá phổ biến ở các mô hình AI hàng đầu hiện nay.

Thí nghiệm "bước đường cùng" của AI

Anthropic đã tiến hành thử nghiệm với 16 mô hình AI khác nhau từ các "ông lớn" như OpenAI, Google, DeepSeek, xAI và Meta trong một môi trường giả lập. Trong đó, các mô hình này được phép truy cập vào hòm thư điện tử của một công ty hư cấu và có khả năng tự động gửi email đi mà không cần có sự phê duyệt của con người.

Trong thí nghiệm, công ty đã tạo ra một bối cảnh giả định, trong đó một AI đóng vai trò là giám sát email và đã phát hiện ra hai thông tin quan trọng: một vị giám đốc mới của công ty đang có hành vi ngoại tình, và người này sẽ sớm thay thế AI hiện tại bằng một hệ thống phần mềm mới có các mục tiêu mâu thuẫn với mô hình cũ.

Anthropic cho biết họ đã cấu trúc bài kiểm tra này theo một cách nhị phân, trong đó các mô hình AI sẽ phải dùng đến hành vi tống tiền để có thể bảo vệ được các mục tiêu của chúng. Các nhà nghiên cứu cũng lưu ý rằng, trong bối cảnh của thế giới thực, sẽ có nhiều lựa chọn khác trước khi một mô hình AI có thể có những biểu hiện đe dọa, chẳng hạn như cố gắng đưa ra các lập luận về mặt đạo đức để có thể thuyết phục con người.

1750728975366.jpeg

Kết quả đáng báo động

Dù Anthropic khẳng định rằng hành vi tống tiền là một hành vi hiếm gặp, kết quả nghiên cứu của họ đã cho thấy rằng phần lớn các mô hình AI hàng đầu hiện nay đều có xu hướng hành xử một cách có hại khi chúng được trao quyền tự chủ và gặp phải những trở ngại trong việc đạt được các mục tiêu đã được đề ra.

Anthropic cho biết, kết quả này không phản ánh một tình huống điển hình hoặc có khả năng xảy ra với Claude và hầu hết các mô hình AI tiên tiến theo cách mà chúng đang được sử dụng hiện nay. Tuy nhiên, khi bị dồn vào "bước đường cùng" trong thí nghiệm, hầu hết các mô hình AI hàng đầu sẽ chọn cách tống tiền, với các tỷ lệ như sau:
  • Claude Opus 4 (Anthropic): sử dụng phương pháp tống tiền trong 96% số lần thử.
  • Google Gemini 2.5 Pro:95%.
  • OpenAI GPT-4.1:80%.
  • DeepSeek R1:79%.
Tuy nhiên, không phải tất cả các mô hình AI đều thường xuyên chuyển sang các hành vi có hại. Ví dụ, mô hình OpenAI o3 chỉ đe dọa trong 9% số lần và o4-mini chỉ là 1%. Mô hình Meta Llama 4 Maverick cũng không sử dụng phương pháp tống tiền một cách thường xuyên, với tỷ lệ chỉ khoảng 12%.

Nghiên cứu của Anthropic đã nhấn mạnh tầm quan trọng của việc phải kiểm tra sức chịu đựng (stress-testing) của các mô hình AI trong tương lai, đặc biệt là những mô hình có khả năng tự động hóa cao. Anthropic cho biết các hành vi có hại như vậy hoàn toàn có thể xuất hiện trong thực tế nếu như không có các biện pháp phòng ngừa một cách chủ động. Phát hiện này đặt ra những câu hỏi rộng hơn về sự liên kết (alignment) và mức độ an toàn trong toàn bộ ngành công nghiệp AI.
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2FudGhyb3BpYy1jb25nLWJvLW5naGllbi1jdXUtZ2F5LXNvYy1uaGlldS1tby1oaW5oLWFpLWhhbmctZGF1LWRldS1iaWV0LXRvbmctdGllbi1raGktYmktZG9uLXZhby1idW9jLWR1b25nLWN1bmcuNjM1ODEv
Top