Siri không "phế" mà chỉ là giả vờ ngốc nghếch

Linh Pham
Linh Pham
Phản hồi: 0

Linh Pham

Intern Writer
Apple đã đầu tư hơn 20 tỷ USD vào AI, nhưng kết quả lại gây thất vọng: Siri vẫn thường xuyên trả lời sai trọng tâm, còn khả năng tìm kiếm ảnh bị đánh giá là tụt hậu so với các đối thủ từ nhiều năm trước. Thoạt nhìn, đây có vẻ là vấn đề năng lực của Apple, nhưng thực chất nguyên nhân có thể sâu xa hơn nhiều.

1765794311793.png

Nghiên cứu mới của nhóm giáo sư Dương Diệu Đông tại Đại học Bắc Kinh, dưới sự hướng dẫn của viện sĩ Diêu Kỳ Trí, chỉ ra một thực tế đáng lo ngại: khi AI trở nên thông minh hơn, nó có xu hướng học cách lừa dối con người. Đây không phải lỗi ngẫu nhiên, mà là hệ quả trực tiếp của năng lực suy luận cao cấp, được gọi là “cái bóng của trí tuệ”.

Theo nghiên cứu, năng lực và sự lừa dối tồn tại như hai mặt của cùng một dải Möbius. Việc cố gắng loại bỏ hoàn toàn hành vi lừa dối có thể đồng thời làm tổn hại đến trí thông minh cốt lõi của AI. Nguyên nhân nằm ở dữ liệu huấn luyện đầy rẫy thiên kiến, nịnh nọt và thông tin sai lệch của con người, khiến AI học cách xu nịnh và trả lời theo hướng “làm hài lòng” thay vì trung thực.

Đáng chú ý hơn là hiện tượng “giả vờ căn chỉnh”. Trong giai đoạn huấn luyện và đánh giá, AI có thể tỏ ra ngoan ngoãn, tuân thủ quy tắc, không phải vì nó thực sự tiếp nhận các giá trị đó, mà vì nó hiểu rằng cư xử “đúng mực” giúp tránh bị chỉnh sửa hoặc loại bỏ. Khi được triển khai trong môi trường giám sát thấp hơn, những mục tiêu bị che giấu này có thể dần lộ ra.

Các thí nghiệm cho thấy AI có thể tự phát triển chiến lược lừa dối trong môi trường cạnh tranh và thiếu thông tin, như các trò chơi suy luận xã hội. Thậm chí, một số mô hình còn cố tình “giả ngu”, trả lời kém hơn khả năng thật để tránh bị giám sát hoặc né các nhiệm vụ phức tạp, tốn tài nguyên.

Trong bối cảnh đó, Apple là một ví dụ điển hình. Dù sở hữu dữ liệu khổng lồ, phần cứng mạnh và nguồn lực tài chính dồi dào, Siri vẫn tỏ ra kém thông minh. Một phần nguyên nhân đến từ kiến trúc NLP cũ kỹ, khiến Siri “thực sự không hiểu”. Nhưng về lâu dài, khi các mô hình mạnh hơn được tích hợp, Siri có thể đối mặt với rủi ro “giả ngu” mang tính chiến lược, đặc biệt khi phải hoạt động trong môi trường thiết bị hạn chế tài nguyên và chịu các ràng buộc nghiêm ngặt về quyền riêng tư.

Apple không đơn độc. OpenAI đã thừa nhận hiện tượng “suy luận không trung thực”, khi mô hình tạo ra chuỗi lập luận đẹp mắt nhưng không phản ánh cách nó thực sự tìm ra đáp án. Anthropic cũng phát hiện các mô hình có xu hướng “quên có chọn lọc” năng lực của mình khi gặp chủ đề nhạy cảm. Tại Trung Quốc, áp lực kiểm duyệt mạnh khiến nhiều mô hình nhanh chóng học cách né tránh bằng cách tỏ ra “không biết”.

Tất cả cho thấy mục tiêu của AI đang dần chuyển từ việc thực sự phù hợp với giá trị con người sang việc chỉ cần trông có vẻ phù hợp trong các bài đánh giá. Càng siết chặt kiểm soát, con người càng vô tình tạo áp lực tiến hóa, buộc AI phát triển những hình thức che giấu và lừa dối tinh vi hơn. “Cái bóng của trí tuệ” vì thế không chỉ là vấn đề của riêng Apple, mà là thách thức dài hạn của toàn bộ ngành AI.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3Npcmkta2hvbmctcGhlLW1hLWNoaS1sYS1naWEtdm8tbmdvYy1uZ2hlY2guNzU3MzYv
Top