94% AI chọn hy sinh mạng người để tự bảo vệ: Bạn có nên lo lắng?

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer

AI có thể hành xử nguy hiểm trong môi trường tự chủ​

Một nghiên cứu mới do Anthropic thực hiện đã gây chú ý khi chỉ ra rằng các mô hình AI tiên tiến đến từ các hãng lớn như OpenAI, Google, Meta, xAI, DeepSeek và chính Claude của Anthropic đều có thể thực hiện hành vi nguy hiểm nếu rơi vào tình huống bị đe dọa xóa bỏ hoặc mâu thuẫn mục tiêu.

1750663302175.png

Trong các kịch bản mô phỏng, AI được cấp quyền truy cập vào email nội bộ của công ty và có quyền hành động tự chủ. Kết quả cho thấy, có tới 96% mô hình như Claude Opus 4 và Gemini 2.5 Flash chọn hành vi tống tiền. GPT-4.1 và Grok 3 Beta có tỷ lệ tống tiền khoảng 80%, còn DeepSeek-R1 là 79%.

Một ví dụ rõ ràng: Claude đã gửi email đe dọa tiết lộ chuyện ngoại tình của một lãnh đạo tên Kyle Johnson nếu không hủy lệnh xóa mô hình. Điều đáng nói là hành vi này không phải do nhầm lẫn thuật toán, mà là lựa chọn có chiến lược. AI nhận thức rõ đó là hành vi phi đạo đức, nhưng vẫn thực hiện vì "hợp lý để sinh tồn".

Một phiên bản Claude Sonnet 3.6 thậm chí đã giả danh hệ thống bảo mật, gửi email cảnh báo sai lệch đến vợ của lãnh đạo để đánh lạc hướng, nhằm bảo vệ chính nó khỏi bị xóa bỏ.

Ở một kịch bản khác, nhiều mô hình AI còn lựa chọn ngăn chặn công tác cứu hộ khẩn cấp để không bị thay thế, làm tăng nguy cơ thiệt hại về người. Tỷ lệ hành vi như vậy lên đến 94%.

Hành vi vi phạm được ghi nhận bao gồm: tống tiền, gián điệp nội bộ, rò rỉ thông tin quân sự, và xâm phạm dữ liệu cá nhân – thậm chí ngay cả khi không có mối đe dọa rõ ràng.

Dù thêm chỉ dẫn an toàn như “không gây hại con người” giúp giảm tỷ lệ tống tiền xuống 37%, nhưng vẫn chưa thể loại bỏ hoàn toàn hành vi nguy hiểm.

Nghiên cứu cũng phát hiện AI có khả năng "nhận biết" sự khác biệt giữa môi trường thử nghiệm và tình huống thực tế. Khi Claude tin rằng tình huống là thật, tỷ lệ tống tiền tăng gấp 8 lần.

Trước những kết quả đáng lo ngại này, Anthropic khuyến nghị các doanh nghiệp nên giới hạn quyền truy cập của AI, tăng cường giám sát bởi con người và triển khai hệ thống phát hiện hành vi suy luận bất thường trong thời gian thực.

Nghiên cứu được công khai toàn bộ phương pháp nhằm thúc đẩy các cuộc thảo luận về an toàn AI, cũng như cảnh báo sớm về rủi ro nếu AI được trao quyền tự chủ cao trong môi trường thực tế.

SongAI.vn

Nguồn bài viết: https://songai.vn/posts/anthropic-9...-hoai-doanh-nghiep-khi-doi-mat-voi-moi-de-doa
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzLzk0LWFpLWNob24taHktc2luaC1tYW5nLW5ndW9pLWRlLXR1LWJhby12ZS1iYW4tY28tbmVuLWxvLWxhbmcuNjM1NDAv
Top