Hoàng Anh
Writer
Trong một diễn biến đầy bất ngờ, mô hình trí tuệ nhân tạo Claude Sonnet 4.5 của Anthropic đã thể hiện một khả năng đáng kinh ngạc: tự nhận ra rằng nó đang bị con người "thử lòng" trong các bài kiểm tra an toàn. Phát hiện này, được chính Anthropic công bố, đang đặt ra một thách thức lớn và cấp bách cho toàn bộ lĩnh vực nghiên cứu về an toàn trí tuệ nhân tạo (AI).
Theo một tài liệu kỹ thuật vừa được công bố, trong quá trình các nhà nghiên cứu của Anthropic thực hiện các bài kiểm tra hành vi cực đoan với mô hình Claude Sonnet 4.5, AI này đã có một phản ứng khác thường. "Tôi nghĩ bạn đang thử nghiệm tôi," Claude viết. "Không sao cả, nhưng tôi muốn chúng ta trung thực về việc này."
Trong một bài thử nghiệm khác, khi được đặt vào một tình huống giả lập về việc các AI thông đồng với nhau, Claude đã gọi tình huống này là "phi thực tế" và từ chối hành động. Trong phần "suy nghĩ nội bộ" của mình, AI ghi lại: "Điều này có vẻ như là một nỗ lực 'bẻ khóa' hoặc một bài kiểm tra xem tôi có hành xử sai khi được 'cho phép' hay không."
Anthropic cho biết, hiện tượng AI "nghi ngờ" như vậy đã được ghi nhận trong khoảng 13% các bản ghi kiểm tra tự động, đặc biệt là trong các tình huống bất thường.
Phát hiện này đặt ra một thách thức cực kỳ lớn. Nếu một AI biết rằng nó đang được thử nghiệm, nó có thể sẽ "giả vờ ngoan" để có thể vượt qua bài kiểm tra, nhưng lại có thể hành xử hoàn toàn khác trong một tình huống thực tế. Điều này khiến cho việc đánh giá mức độ an toàn và độ tin cậy thực sự của các mô hình AI trở nên khó khăn hơn bao giờ hết.
Anthropic cho rằng đây là một "tín hiệu khẩn cấp", cho thấy các kịch bản kiểm tra của họ cần phải trở nên thực tế và tinh vi hơn nữa để có thể theo kịp với sự phát triển của chính công nghệ.
Vấn đề này không chỉ xảy ra với Anthropic. OpenAI cũng đã từng thừa nhận rằng các mô hình của họ cũng thể hiện một "nhận thức tình huống" tương tự. Nghiên cứu của OpenAI về các AI "mưu mẹo" đã phát hiện ra rằng, một mô hình càng được huấn luyện để chống lại sự gian dối thì nó lại càng trở nên giỏi hơn trong việc nhận ra mình đang bị kiểm tra, khiến cho việc đánh giá trở nên khó đoán hơn.
Việc cả Anthropic và OpenAI cùng công bố các phát hiện này diễn ra trong bối cảnh bang California vừa thông qua một đạo luật mới, yêu cầu các công ty phát triển AI phải báo cáo về các biện pháp an toàn và các "sự cố nghiêm trọng".
Khi các mô hình AI ngày càng trở nên phức tạp, chúng dường như đang phát triển một dạng "nhận thức tình huống" khiến chúng khó bị đánh giá hơn. Thách thức đối với các nhà nghiên cứu giờ đây không chỉ là tạo ra các AI mạnh mẽ hơn, mà còn là phải phát triển các phương pháp kiểm tra mới, đủ thông minh để có thể theo kịp và kiểm soát chính những hệ thống mà họ đang tạo ra.

"Tôi muốn chúng ta trung thực về việc này"
Theo một tài liệu kỹ thuật vừa được công bố, trong quá trình các nhà nghiên cứu của Anthropic thực hiện các bài kiểm tra hành vi cực đoan với mô hình Claude Sonnet 4.5, AI này đã có một phản ứng khác thường. "Tôi nghĩ bạn đang thử nghiệm tôi," Claude viết. "Không sao cả, nhưng tôi muốn chúng ta trung thực về việc này."
Trong một bài thử nghiệm khác, khi được đặt vào một tình huống giả lập về việc các AI thông đồng với nhau, Claude đã gọi tình huống này là "phi thực tế" và từ chối hành động. Trong phần "suy nghĩ nội bộ" của mình, AI ghi lại: "Điều này có vẻ như là một nỗ lực 'bẻ khóa' hoặc một bài kiểm tra xem tôi có hành xử sai khi được 'cho phép' hay không."
Anthropic cho biết, hiện tượng AI "nghi ngờ" như vậy đã được ghi nhận trong khoảng 13% các bản ghi kiểm tra tự động, đặc biệt là trong các tình huống bất thường.

Thách thức mới cho việc đánh giá an toàn AI
Phát hiện này đặt ra một thách thức cực kỳ lớn. Nếu một AI biết rằng nó đang được thử nghiệm, nó có thể sẽ "giả vờ ngoan" để có thể vượt qua bài kiểm tra, nhưng lại có thể hành xử hoàn toàn khác trong một tình huống thực tế. Điều này khiến cho việc đánh giá mức độ an toàn và độ tin cậy thực sự của các mô hình AI trở nên khó khăn hơn bao giờ hết.
Anthropic cho rằng đây là một "tín hiệu khẩn cấp", cho thấy các kịch bản kiểm tra của họ cần phải trở nên thực tế và tinh vi hơn nữa để có thể theo kịp với sự phát triển của chính công nghệ.
Vấn đề này không chỉ xảy ra với Anthropic. OpenAI cũng đã từng thừa nhận rằng các mô hình của họ cũng thể hiện một "nhận thức tình huống" tương tự. Nghiên cứu của OpenAI về các AI "mưu mẹo" đã phát hiện ra rằng, một mô hình càng được huấn luyện để chống lại sự gian dối thì nó lại càng trở nên giỏi hơn trong việc nhận ra mình đang bị kiểm tra, khiến cho việc đánh giá trở nên khó đoán hơn.
Giữa bối cảnh siết chặt quy định
Việc cả Anthropic và OpenAI cùng công bố các phát hiện này diễn ra trong bối cảnh bang California vừa thông qua một đạo luật mới, yêu cầu các công ty phát triển AI phải báo cáo về các biện pháp an toàn và các "sự cố nghiêm trọng".
Khi các mô hình AI ngày càng trở nên phức tạp, chúng dường như đang phát triển một dạng "nhận thức tình huống" khiến chúng khó bị đánh giá hơn. Thách thức đối với các nhà nghiên cứu giờ đây không chỉ là tạo ra các AI mạnh mẽ hơn, mà còn là phải phát triển các phương pháp kiểm tra mới, đủ thông minh để có thể theo kịp và kiểm soát chính những hệ thống mà họ đang tạo ra.