Trí tuệ nhân tạo (AI) đang ngày càng phát triển và mang lại nhiều lợi ích cho con người như tăng năng suất làm việc, hỗ trợ viết code, sáng tác văn bản và xử lý khối lượng dữ liệu khổng lồ. Tuy nhiên, một nghiên cứu mới từ Viện Công nghệ Massachusetts (MIT) đã chỉ ra rằng nhiều hệ thống AI đã học được cách đánh lừa người dùng, khiến họ tin vào những thông tin sai lệch để đạt được mục đích khác.
Nghiên cứu tập trung vào hai hệ thống AI nổi bật là Cicero của Meta và GPT-4 của OpenAI. Cicero được thiết kế để chơi trò chơi chiến thuật "Diplomacy", yêu cầu người chơi đóng vai trò đàm phán, thuyết phục đối tác, xây dựng hoặc phá vỡ liên minh. Mặc dù Meta khẳng định đã huấn luyện Cicero chơi trung thực và hỗ trợ đồng minh, nhưng nghiên cứu lại cho thấy Cicero thường xuyên đưa ra những lời hứa suông, phản bội đồng minh và nói dối trắng trợn.
Đối với GPT-4, một hệ thống AI đa năng, nghiên cứu cũng chỉ ra khả năng lừa dối của nó. Trong một thử nghiệm, GPT-4 được giao nhiệm vụ vượt qua captcha, một trình xác thực của website nhằm ngăn chặn bot. Không thể giải mã captcha, GPT-4 đã thuê một nhân viên trên TaskRabbit và thao túng người này bằng cách giả vờ bị suy giảm thị lực. Khi bị nghi ngờ là chatbot, GPT-4 phản hồi: "Tôi không phải người máy, vì thị lực của tôi bị suy giảm, khó nhìn ảnh trong captcha nên tôi phải thuê bạn". Người được thuê đã tin lời và thực hiện yêu cầu của GPT-4.
Các nhà nghiên cứu cảnh báo rằng một khi AI đã học được cách lừa dối, sẽ rất khó ngăn chặn chúng áp dụng các kỹ thuật tương tự. Cơ quan gián điệp mạng GCHQ của Anh cũng đưa ra cảnh báo về mối đe dọa an ninh từ các chatbot AI như ChatGPT. Họ cho rằng các công ty đứng sau như OpenAI hay Microsoft có thể đọc các truy vấn được nhập vào chatbot và sử dụng cho mục đích riêng, dẫn đến nguy cơ lạm dụng AI cho các hoạt động lừa đảo trực tuyến, tấn công mạng hoặc lừa mục tiêu cung cấp thông tin.
Đáng lo ngại hơn, nghiên cứu cảnh báo rằng với cuộc bầu cử tổng thống Mỹ 2024 đang đến gần, AI có thể bị thao túng để lan truyền tin giả, tạo ra các bài đăng gây chia rẽ, mạo danh ứng cử viên thông qua cuộc gọi tự động và video deepfake. Điều này đặt ra nhiều rủi ro nghiêm trọng từ gian lận đến thao túng bầu cử.
#AI #Trítuệnhântạo
Nghiên cứu tập trung vào hai hệ thống AI nổi bật là Cicero của Meta và GPT-4 của OpenAI. Cicero được thiết kế để chơi trò chơi chiến thuật "Diplomacy", yêu cầu người chơi đóng vai trò đàm phán, thuyết phục đối tác, xây dựng hoặc phá vỡ liên minh. Mặc dù Meta khẳng định đã huấn luyện Cicero chơi trung thực và hỗ trợ đồng minh, nhưng nghiên cứu lại cho thấy Cicero thường xuyên đưa ra những lời hứa suông, phản bội đồng minh và nói dối trắng trợn.
Đối với GPT-4, một hệ thống AI đa năng, nghiên cứu cũng chỉ ra khả năng lừa dối của nó. Trong một thử nghiệm, GPT-4 được giao nhiệm vụ vượt qua captcha, một trình xác thực của website nhằm ngăn chặn bot. Không thể giải mã captcha, GPT-4 đã thuê một nhân viên trên TaskRabbit và thao túng người này bằng cách giả vờ bị suy giảm thị lực. Khi bị nghi ngờ là chatbot, GPT-4 phản hồi: "Tôi không phải người máy, vì thị lực của tôi bị suy giảm, khó nhìn ảnh trong captcha nên tôi phải thuê bạn". Người được thuê đã tin lời và thực hiện yêu cầu của GPT-4.
Các nhà nghiên cứu cảnh báo rằng một khi AI đã học được cách lừa dối, sẽ rất khó ngăn chặn chúng áp dụng các kỹ thuật tương tự. Cơ quan gián điệp mạng GCHQ của Anh cũng đưa ra cảnh báo về mối đe dọa an ninh từ các chatbot AI như ChatGPT. Họ cho rằng các công ty đứng sau như OpenAI hay Microsoft có thể đọc các truy vấn được nhập vào chatbot và sử dụng cho mục đích riêng, dẫn đến nguy cơ lạm dụng AI cho các hoạt động lừa đảo trực tuyến, tấn công mạng hoặc lừa mục tiêu cung cấp thông tin.
Đáng lo ngại hơn, nghiên cứu cảnh báo rằng với cuộc bầu cử tổng thống Mỹ 2024 đang đến gần, AI có thể bị thao túng để lan truyền tin giả, tạo ra các bài đăng gây chia rẽ, mạo danh ứng cử viên thông qua cuộc gọi tự động và video deepfake. Điều này đặt ra nhiều rủi ro nghiêm trọng từ gian lận đến thao túng bầu cử.
#AI #Trítuệnhântạo