Cảnh báo: Hacker đã “qua mặt” AI bằng chiêu giấu lệnh trên web, LLM cũng bị điều khiển mà không hay biết

MinhSec
MinhSec
Phản hồi: 0

MinhSec

Writer
Một hình thức tấn công mạng mới đang khiến giới an ninh công nghệ đặc biệt lo ngại khi có thể “qua mặt” các hệ thống trí tuệ nhân tạo mà không cần xâm nhập trực tiếp. Theo báo cáo từ Forcepoint X-Labs, tin tặc đã bắt đầu khai thác một kỹ thuật gọi là Indirect Prompt Injection (IPI) để âm thầm điều khiển các mô hình AI ngay từ những trang web tưởng chừng vô hại.

Điểm đáng chú ý là phương pháp này không tấn công trực tiếp vào hệ thống, mà “gài bẫy” ngay trong nội dung mà AI đọc hằng ngày.

Lệnh độc ẩn trong web: AI tự làm theo mà không hay biết​

Khác với kiểu tấn công truyền thống, nơi kẻ xấu gửi trực tiếp dữ liệu độc hại, IPI hoạt động theo cách tinh vi hơn. Tin tặc sẽ giấu các chỉ thị nguy hiểm vào trong mã nguồn website, dưới dạng mà người dùng bình thường không thể nhìn thấy.
1777025908601.png

Khi các hệ thống AI như ChatGPT, GitHub Copilot hay các trợ lý trình duyệt truy cập và đọc nội dung trang, chúng có thể vô tình coi những đoạn mã ẩn này là “lệnh hợp lệ” và thực thi theo.
Các nhà nghiên cứu cho biết, hacker sử dụng nhiều thủ thuật để che giấu lệnh, như:
  • Văn bản kích thước siêu nhỏ (1px)
  • Màu chữ trong suốt
  • Bình luận HTML hoặc thẻ metadata
  • Các đoạn mã CSS ẩn như display:none
Với con người, trang web vẫn hoàn toàn bình thường. Nhưng với AI, đó lại là một “chỉ thị rõ ràng”.
Nguyên nhân cốt lõi nằm ở việc nhiều mô hình Large Language Model chưa thể phân biệt rạch ròi giữa dữ liệu và mệnh lệnh, khiến chúng dễ bị đánh lừa.

Từ xóa dữ liệu đến chuyển tiền: Nguy cơ không còn là lý thuyết​

Theo Forcepoint, các cuộc tấn công kiểu này đã xuất hiện ngoài thực tế, với nhiều kịch bản đáng lo ngại.
Trong một số trường hợp, AI bị dụ thực hiện các hành vi nguy hiểm như:
  • Xóa dữ liệu hệ thống bằng lệnh giả lập
  • Tiết lộ khóa API bí mật
  • Thực hiện giao dịch tài chính trái phép
  • Tấn công từ chối dịch vụ (DoS)
  • Chuyển hướng người dùng đến các trang độc hại
Thậm chí, có trường hợp AI bị “đánh lạc hướng” bằng những yêu cầu vô nghĩa, khiến nó ngừng thực hiện nhiệm vụ chính.

Các chuyên gia cảnh báo rằng, khi AI ngày càng được tích hợp sâu vào các hệ thống tự động như lập trình, tài chính hay vận hành doanh nghiệp, rủi ro từ IPI sẽ càng lớn. Tin tặc không cần tấn công trực tiếp mà chỉ cần “đánh lừa AI” mắt xích trung gian đang ngày càng quan trọng.

Dù vậy, đây cũng là lời cảnh tỉnh cho ngành công nghệ: nếu không sớm cải thiện khả năng phân biệt giữa dữ liệu và lệnh, các hệ thống AI có thể trở thành mục tiêu khai thác nguy hiểm nhất trong kỷ nguyên số.(hackread)
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NhbmgtYmFvLWhhY2tlci1kYS1xdWEtbWF0LWFpLWJhbmctY2hpZXUtZ2lhdS1sZW5oLXRyZW4td2ViLWxsbS1jdW5nLWJpLWRpZXUta2hpZW4tbWEta2hvbmctaGF5LWJpZXQuODIyMjYv
Top