Người dùng vẫn dè chừng AI vì lý do phổ biến này

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn có nghĩ rằng AI thông minh thì khó bị lừa hơn con người không? Một khảo sát mới lại cho thấy điều ngược lại.

AI “thông minh” nhưng lại dễ mắc bẫy​

Báo cáo mới của Salt Security cho thấy, 62% người được hỏi tin rằng các tác nhân AI (agentic AI) dễ bị lừa hơn con người. Nguyên nhân không chỉ nằm ở bản thân AI, mà ở lớp “mạch máu” của nó: các API, nơi kết nối, trao đổi dữ liệu, và thực thi hành động giữa các hệ thống.

Khi API không được phát hiện đầy đủ, quản trị chặt chẽ và bảo mật nghiêm ngặt, chính công nghệ được kỳ vọng sẽ nâng cao trải nghiệm khách hàng lại trở thành cửa ngõ cho rò rỉ dữ liệu hoặc tấn công mạng.

1755226488213.png

Cuộc khảo sát của Censuswide với 1.000 người dùng Mỹ và 250 tổ chức đã dùng AI cho thấy: hơn một nửa doanh nghiệp đang triển khai AI vào vai trò tiếp xúc khách hàng, nhiều đơn vị sử dụng từ 6 đến 20 loại AI agent, thậm chí 19% dùng tới 21–50 loại. Nhưng chỉ 32% đánh giá rủi ro API hàng ngày, và vỏn vẹn 37% có đội chuyên trách bảo mật API hoặc quyền riêng tư. Đáng lo hơn, 7% chỉ kiểm tra hàng tháng hoặc ít hơn.

Khoảng cách niềm tin giữa khách hàng và AI​

Người dùng trò chuyện với chatbot ngày càng nhiều, 64% nói họ đã tăng tần suất trong năm qua, 80% từng chia sẻ thông tin cá nhân khi tương tác. Đáng chú ý, 44% cho biết họ cảm thấy “bị buộc” phải chia sẻ để hoàn thành tác vụ.

Tuy nhiên, niềm tin lại rất thấp: chỉ 22% cảm thấy an toàn khi chia sẻ thông tin với AI, so với 37% qua điện thoại và 54% khi gặp trực tiếp. Điều này cho thấy, dù AI tiện lợi, tâm lý người dùng vẫn dè chừng vì sợ rủi ro bảo mật.

Các chuyên gia của Salt Security cảnh báo, mỗi API là một điểm có thể bị tấn công. Khi AI ngày càng tự động hóa nhiều tác vụ và xử lý dữ liệu nhạy cảm, lỗ hổng về xác thực, kiểm tra đầu vào và kiểm soát truy cập có thể biến thành thảm họa. Giải pháp nằm ở việc giám sát API liên tục, phát hiện bất thường bằng AI, mã hóa dữ liệu, kiểm thử bảo mật định kỳ và đào tạo nhà phát triển.

Bài học ở đây rất rõ: muốn AI thực sự hữu ích và đáng tin, chúng ta phải bảo vệ “hệ tuần hoàn” của nó trước. Nếu không, khoảng cách niềm tin sẽ càng lớn và rủi ro sẽ vượt khỏi tầm kiểm soát.

itsecurityguru
Nguồn bài viết: https://www.itsecurityguru.org/2025...-ai-agents-are-easier-to-deceive-than-humans/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL25ndW9pLWR1bmctdmFuLWRlLWNodW5nLWFpLXZpLWx5LWRvLXBoby1iaWVuLW5heS42NzIzMS8=
Top