Google cảnh báo về phần mềm độc hại thích ứng do trí tuệ nhân tạo điều khiển đang tự viết lại mã của chính nó.

Duy Linh
Duy Linh
Phản hồi: 0

Duy Linh

Writer
Bức tranh an ninh mạng năm 2025 chứng kiến bước ngoặt lớn khi trí tuệ nhân tạo (AI) không còn chỉ là công cụ hỗ trợ mà đã trở thành thành phần trực tiếp trong các cuộc tấn công mạng. Tin tặc bắt đầu tích hợp AI vào phần mềm độc hại, giúp các chiến dịch tấn công diễn ra nhanh hơn, quy mô lớn hơn và khó phát hiện hơn.
1773290707832.png

Google cảnh báo về phần mềm độc hại thích ứng do trí tuệ nhân tạo điều khiển đang tự viết lại mã của chính nó.
Theo Nhóm Tình báo Mối đe dọa của Google (GTIG) và Mandiant, các tác nhân đe dọa hiện triển khai phần mềm độc hại có khả năng thích ứng và các tác nhân AI tự động có thể thay đổi hành vi trong quá trình tấn công. Điều này khiến các hệ thống phòng thủ truyền thống gặp nhiều khó khăn hơn trong việc phát hiện và ngăn chặn.

Trong giai đoạn đầu, AI tạo sinh chủ yếu được tội phạm mạng sử dụng để tăng năng suất. Các mô hình ngôn ngữ lớn (LLM) được dùng để soạn email lừa đảo, dịch tin nhắn và hỗ trợ lập trình cơ bản.

Tuy nhiên, đến cuối năm 2025, các nhà nghiên cứu nhận thấy tin tặc đã vượt xa giai đoạn thử nghiệm. AI bắt đầu được tích hợp trực tiếp vào phần mềm độc hại và cơ sở hạ tầng tấn công.

Trong những tháng đầu năm 2025, GTIG ghi nhận các tác nhân đe dọa do nhà nước tài trợ từ Trung Quốc, Nga, Iran và Triều Tiên sử dụng công cụ AI tạo sinh chủ yếu để hỗ trợ hoạt động hiện có.

Các nhóm này khai thác LLM như Gemini của Google để sửa lỗi mã, trinh sát hệ thống và tạo các đoạn mã không độc hại có thể được tích hợp vào phần mềm độc hại sau này.

Mặc dù tin tặc đã cố gắng vượt qua các cơ chế an toàn của AI hoặc yêu cầu tạo mã độc trực tiếp, phần lớn nỗ lực ở giai đoạn này chưa thành công. AI chủ yếu đóng vai trò công cụ tăng năng suất, giúp cả tin tặc giàu kinh nghiệm và người có kỹ năng thấp đẩy nhanh việc phát triển chiến dịch lừa đảo và nghiên cứu lỗ hổng.

Bước ngoặt thực sự xuất hiện vào giữa năm 2025 khi các tác nhân đe dọa bắt đầu tích hợp trực tiếp dịch vụ AI vào chuỗi tấn công. Sự tích hợp này cho phép phần mềm độc hại tự động tạo lệnh, chỉnh sửa mã và thích nghi với môi trường mục tiêu mà không cần sự can thiệp liên tục của con người.

Sự xuất hiện của phần mềm độc hại thích ứng

Một trong những diễn biến đáng chú ý nhất mà GTIG phát hiện là sự xuất hiện của các họ phần mềm độc hại thích ứng như PROMPTFLUX và PROMPTSTEAL.

Các biến thể này sử dụng API của mô hình ngôn ngữ lớn trong quá trình thực thi để tạo mã hoặc lệnh độc hại theo yêu cầu. Khác với phần mềm độc hại truyền thống có logic cố định, phần mềm độc hại thích ứng có thể thay đổi hành vi theo thời gian thực, khiến chúng trở nên đa hình và khó phát hiện bằng các hệ thống phòng thủ dựa trên chữ ký.

PROMPTFLUX, được phát hiện vào tháng 6/2025, sử dụng API Gemini để định kỳ viết lại mã nguồn của chính nó thông qua kỹ thuật sửa đổi “đúng lúc cần thiết”. Cách tiếp cận này giúp phần mềm độc hại liên tục thay đổi để né tránh hệ thống phát hiện.

Trong khi đó, PROMPTSTEAL được cho là công cụ của nhóm tội phạm mạng APT28 có liên hệ với Nga sử dụng LLM để tạo các lệnh Windows nhằm đánh cắp tài liệu nhạy cảm từ các hệ thống bị xâm nhập.

Trong mô hình này, hệ thống AI hoạt động như một lớp điều khiển và chỉ huy bên ngoài, cung cấp hướng dẫn phù hợp với ngữ cảnh cho phần mềm độc hại dựa trên môi trường mà nó gặp phải.

Đến cuối năm 2025, các nhà nghiên cứu xác nhận AI đã trở thành thành phần hoạt động trong các cuộc tấn công mạng. Một số công cụ như FRUITSHELL – shell đảo ngược dựa trên PowerShell – và QUIETVAULT – công cụ đánh cắp thông tin đăng nhập được ghi nhận sử dụng AI để định vị dữ liệu nhạy cảm và tự động đánh cắp thông tin.

Google cũng phát hiện tin tặc sử dụng AI để khám phá các bề mặt tấn công chưa quen thuộc. Một số đối tượng bị nghi có liên hệ với Trung Quốc dùng AI nghiên cứu Kubernetes, hệ thống VMware vSphere và cấu trúc quyền truy cập của macOS.

Trong khi đó, các nhóm tin tặc Triều Tiên tận dụng AI để trinh sát các ứng dụng ví điện tử, nhằm phục vụ các chiến dịch trộm cắp tài chính do nhà nước hậu thuẫn.

Ngoài ra, các nhà nghiên cứu còn ghi nhận sự xuất hiện của các chợ đen cung cấp công cụ tấn công mạng hỗ trợ AI. Những công cụ này cho phép tạo chiến dịch lừa đảo, phát triển phần mềm độc hại và tìm kiếm lỗ hổng bảo mật, từ đó làm giảm đáng kể rào cản gia nhập đối với tội phạm mạng.

Rủi ro từ AI “bóng tối” trong doanh nghiệp

Trong khi tin tặc tăng tốc áp dụng AI, nhiều doanh nghiệp cũng triển khai công nghệ này với tốc độ nhanh hơn khả năng quản lý của đội ngũ bảo mật.

Các đánh giá của Mandiant cho thấy nhiều tổ chức thiếu quản trị và giám sát đối với tài sản AI. Một rủi ro đáng lo ngại là “AI bóng tối”, khi nhân viên triển khai các công cụ AI mà không có sự giám sát của bộ phận an ninh, bỏ qua quy trình phê duyệt tiêu chuẩn.

Các nhà nghiên cứu đã xác định một số vấn đề phổ biến trong các triển khai AI của doanh nghiệp:
  • Quản lý tài sản kém và thiếu dữ liệu về hạ tầng AI.
  • Thiếu thông tin về chuỗi cung ứng AI và không có danh mục linh kiện phần mềm (SBOM).
  • Công cụ quản lý lỗ hổng không thể giám sát các khung AI hoặc môi trường container.
  • Kiểm soát danh tính và quyền truy cập yếu, khiến dữ liệu nhạy cảm dễ bị hệ thống AI khai thác.
Những điểm yếu này thường tạo ra rủi ro lớn hơn so với các cuộc tấn công lý thuyết nhắm vào AI như đánh cắp mô hình hoặc làm sai lệch dữ liệu huấn luyện.

Dù vậy, AI cũng đang trở thành công cụ quan trọng cho các chuyên gia bảo mật. Các trung tâm điều hành an ninh (SOC) ngày càng sử dụng AI để tăng tốc điều tra, phân tích mô hình sự cố và tự động hóa hoạt động săn tìm mối đe dọa.

Hệ thống AI có thể phân tích hàng tháng dữ liệu sự cố để xác định các điểm yếu thường xuyên xuất hiện, tự động tạo truy vấn tìm kiếm mối đe dọa và hỗ trợ các nhà phân tích xác thực các logic phát hiện phức tạp.

Trong các tình huống ứng phó sự cố, AI còn có thể xây dựng dòng thời gian chi tiết từ nhiều nguồn dữ liệu đo từ xa, giúp rút ngắn đáng kể thời gian điều tra.

Trong tương lai, Google dự đoán sự xuất hiện của “trung tâm vận hành an ninh dựa trên tác nhân”, nơi các tác nhân AI liên kết với nhau để tự động phân loại cảnh báo, điều tra sự cố và hỗ trợ nhà phân tích xử lý các nhiệm vụ bảo mật phức tạp.

Trước sự phát triển của phần mềm độc hại thích ứng và các cuộc tấn công dựa trên AI, các chuyên gia khuyến nghị tổ chức cần chuyển từ các biện pháp bảo mật tĩnh sang phát hiện hành vi, thường xuyên thực hiện các hoạt động mô phỏng tấn công (red teaming) và xây dựng khung quản trị AI mạnh mẽ hơn.

Cuối cùng, khả năng phòng thủ trước các mối đe dọa từ trí tuệ nhân tạo không chỉ phụ thuộc vào công nghệ mà còn vào việc giám sát, quản trị và thử nghiệm chủ động trên toàn bộ hệ thống AI. (gbhackers)

Đọc chi tiết tại đây: https://gbhackers.com/ai-driven-adaptive-malware/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2dvb2dsZS1jYW5oLWJhby12ZS1waGFuLW1lbS1kb2MtaGFpLXRoaWNoLXVuZy1kby10cmktdHVlLW5oYW4tdGFvLWRpZXUta2hpZW4tZGFuZy10dS12aWV0LWxhaS1tYS1jdWEtY2hpbmgtbm8uODA0NTMv
Top