Cuộc chạy đua vũ trang AI: Vì sao an ninh mạng truyền thống đã lỗi thời

MinhSec
MinhSec
Phản hồi: 0

MinhSec

Writer

Các cuộc tấn công mạng do AI hỗ trợ đang trở thành hiện thực​

1750650360345.png

Sau hơn 20 năm làm việc trong lĩnh vực an ninh mạng, tôi đã chứng kiến sự thay đổi không ngừng trong cách tin tặc tấn công các hệ thống. Nhưng điều mà chuyên gia an ninh Kevin Mandia từng dự đoán về các cuộc tấn công mạng do trí tuệ nhân tạo (AI) hỗ trợ trong vòng một năm dường như đã thành hiện thực và con số không biết nói dối.

Theo báo cáo của Kaspersky, năm 2024 đã ghi nhận hơn 3 tỷ cuộc tấn công phần mềm độc hại trên toàn cầu, với trung bình 467.000 tệp độc hại được phát hiện mỗi ngày. Các vụ phát hiện Trojan tăng 33%, mối đe dọa tài chính trên thiết bị di động tăng gấp đôi, và đáng sợ hơn, 45% mật khẩu có thể bị bẻ khóa trong dưới một phút.

Tuy nhiên, điều đáng lo không chỉ nằm ở khối lượng, mà là bản chất của các mối đe dọa đã thay đổi. AI đang trở thành vũ khí mới trong tay kẻ tấn công.

Microsoft và OpenAI đã xác nhận rằng các nhóm hacker do nhà nước hậu thuẫn đang dùng AI để thực hiện tấn công mạng. Ví dụ, Fancy Bear của Nga dùng mô hình ngôn ngữ lớn để thu thập thông tin về radar và truyền thông vệ tinh. Nhóm Charcoal Typhoon (Trung Quốc) tạo ra nội dung kỹ thuật xã hội đa ngôn ngữ, Crimson Sandstorm (Iran) phát tán email lừa đảo, và Emerald Sleet (Triều Tiên) khai thác lỗ hổng để theo dõi chương trình hạt nhân.

Thậm chí, mô hình AI độc hại đang được lưu trữ công khai. Tội phạm mạng đang dùng AI để tạo mã độc, nội dung lừa đảo, video deepfake và thực hiện tấn công kỹ thuật xã hội. Khái niệm “AI bóng tối” cũng đã xuất hiện khi nhân viên sử dụng công cụ AI trái phép, vô tình làm rò rỉ dữ liệu nhạy cảm.

An ninh mạng cần chuyển sang thế hệ mới​


AI đang giúp tin tặc dịch mã độc sang nhiều ngôn ngữ và nền tảng, mở rộng quy mô tấn công một cách dễ dàng. Những tác nhân AI tự động có thể do thám, phát hiện điểm yếu và tấn công mà không cần sự can thiệp của con người. Đây không còn là những đoạn mã đơn lẻ do hacker viết tay, mà là vũ khí mạng tự hành, có thể ẩn mình trong hệ thống mà không bị phát hiện.

Mối nguy không chỉ nằm ở tốc độ tấn công, mà còn ở việc các hệ thống AI không thể phân biệt giữa mục tiêu quân sự và cơ sở dân sự. Ví dụ, một cuộc tấn công vào lưới điện có thể gây ảnh hưởng đến cả bệnh viện gần đó điều mà các chuyên gia gọi là mất khả năng phân biệt mục tiêu.

Trong khi đó, hiện chưa có khuôn khổ toàn cầu nào kiểm soát việc phát triển vũ khí AI, dù chúng ta đã thấy các hệ thống vũ khí bán tự động, tự động chọn mục tiêu và tấn công mà không có sự giám sát. Đáng sợ hơn, mọi hệ thống tự động đều có thể bị tấn công, và nguy cơ các tổ chức phi nhà nước chiếm quyền kiểm soát là hoàn toàn có thật.

Một số công ty an ninh mạng như Dropzone AI đang phát triển các phân tích viên AI trong SOC (Trung tâm điều hành an ninh), giúp theo dõi và phản ứng với mối đe dọa 24/7. Các doanh nghiệp như Natoma cũng đang xây dựng giải pháp quản lý, giám sát và bảo mật tác nhân AI trong nội bộ doanh nghiệp.

Câu trả lời ở đây không phải là thay thế con người bằng AI, mà là phối hợp chặt chẽ giữa AI và chuyên gia bảo mật. AI có thể xử lý lượng dữ liệu khổng lồ và phản ứng với sự cố trong vài mili giây, giúp con người tập trung vào chiến lược và đánh giá.

Thách thức lớn nhất hiện nay không phải là liệu các cuộc tấn công do AI có xảy ra, mà là chúng ta có kịp sẵn sàng phòng thủ bằng AI hay không. Cuộc đua đã bắt đầu. Và thành thật mà nói, chúng ta đang bị bỏ lại phía sau.

 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2N1b2MtY2hheS1kdWEtdnUtdHJhbmctYWktdmktc2FvLWFuLW5pbmgtbWFuZy10cnV5ZW4tdGhvbmctZGEtbG9pLXRob2kuNjM1MTUv
Top