Bui Nhat Minh
Intern Writer
Trong khi nhiều người đang tập trung vào các cuộc tấn công tức thời bằng AI, một nhà nghiên cứu bảo mật cảnh báo rằng thế hệ phần mềm độc hại tiếp theo có thể lặng lẽ ẩn mình trong chính các mô hình trí tuệ nhân tạo (AI) đặc biệt là trong các ứng dụng được người dùng tin tưởng.
Shanmugam đã phát triển một framework tấn công có tên MLArc, sử dụng chính các thành phần học máy của Apple để thực hiện kiểm soát và ra lệnh (Command & Control - C2). Bằng cách tận dụng Core ML, Vision (xử lý ảnh) và AVFoundation (xử lý âm thanh), mã độc có thể ẩn mình dưới dạng dữ liệu hợp pháp, lọt qua mọi hệ thống kiểm tra và thậm chí được kích hoạt mà không để lại dấu vết nào rõ ràng.
Shanmugam cảnh báo rằng bất kỳ tổ chức nào cũng có thể trở thành nạn nhân nếu vô tình tích hợp một mô hình AI bị “nhiễm độc”. Đây là rủi ro nghiêm trọng trong chuỗi cung ứng phần mềm hiện đại nơi AI ngày càng được dùng phổ biến trong ảnh, âm thanh, chatbot, và nhiều ứng dụng khác.
Ông gọi đây là một chiến thuật “nhóm đỏ” nhằm giúp cộng đồng bảo mật nhận ra rằng mô hình AI không chỉ là dữ liệu thụ động, mà có thể trở thành kênh truyền tải dữ liệu nguy hiểm. Ông sẽ công bố các chỉ số xâm nhập (IoC) liên quan trong blog nghiên cứu của mình cùng thời điểm với buổi thuyết trình.
“Thế hệ cấy ghép độc hại tiếp theo đang tìm nơi ẩn náu trong AI, và hiện tại chúng ta chưa đủ sẵn sàng để phát hiện,” ông kết luận. (darkreading)
Mã độc giấu trong hình ảnh và âm thanh AI
Nhà nghiên cứu Hariharan Shanmugam sẽ trình bày nghiên cứu gây chú ý tại hội nghị bảo mật Black Hat USA 2025 vào ngày 7 tháng 8. Thay vì khai thác lỗi kỹ thuật thông thường hay phá mã, ông cho thấy rằng các mô hình AI như công cụ Core ML của Apple có thể bị “vũ khí hóa” mà không cần đến lỗ hổng phần mềm. Vấn đề nằm ở chỗ: phần lớn các công cụ bảo mật hiện nay không được thiết kế để quét sâu vào bên trong mô hình học máy hoặc thư viện AI, nơi mà mã độc có thể bị giấu kín trong hình ảnh hoặc tệp âm thanh.
Shanmugam đã phát triển một framework tấn công có tên MLArc, sử dụng chính các thành phần học máy của Apple để thực hiện kiểm soát và ra lệnh (Command & Control - C2). Bằng cách tận dụng Core ML, Vision (xử lý ảnh) và AVFoundation (xử lý âm thanh), mã độc có thể ẩn mình dưới dạng dữ liệu hợp pháp, lọt qua mọi hệ thống kiểm tra và thậm chí được kích hoạt mà không để lại dấu vết nào rõ ràng.
Tin tưởng mù quáng rủi ro chuỗi cung ứng mới
Điều đáng lo ngại là những cuộc tấn công như vậy không cần bất kỳ lỗi nào trong hệ thống Apple hay ứng dụng AI. Thay vào đó, kẻ tấn công có thể phát hành một ứng dụng AI "trông có vẻ hợp pháp", được lưu hành công khai trên các kho phần mềm, nhưng bên trong lại chứa mã độc giấu kín. Khi ứng dụng chạy, payload độc hại sẽ được thực thi hoàn toàn trong bộ nhớ, tránh xa mọi bộ quét truyền thống.Shanmugam cảnh báo rằng bất kỳ tổ chức nào cũng có thể trở thành nạn nhân nếu vô tình tích hợp một mô hình AI bị “nhiễm độc”. Đây là rủi ro nghiêm trọng trong chuỗi cung ứng phần mềm hiện đại nơi AI ngày càng được dùng phổ biến trong ảnh, âm thanh, chatbot, và nhiều ứng dụng khác.
Ông gọi đây là một chiến thuật “nhóm đỏ” nhằm giúp cộng đồng bảo mật nhận ra rằng mô hình AI không chỉ là dữ liệu thụ động, mà có thể trở thành kênh truyền tải dữ liệu nguy hiểm. Ông sẽ công bố các chỉ số xâm nhập (IoC) liên quan trong blog nghiên cứu của mình cùng thời điểm với buổi thuyết trình.
“Thế hệ cấy ghép độc hại tiếp theo đang tìm nơi ẩn náu trong AI, và hiện tại chúng ta chưa đủ sẵn sàng để phát hiện,” ông kết luận. (darkreading)
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview