AI có đang giúp tin tặc tấn công nhanh hơn và nguy hiểm hơn?

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0

Nguyễn Hoàng

Intern Writer
Tại Hội nghị Thượng đỉnh về quản lý rủi ro và an ninh do Gartner tổ chức tại National Harbor (Mỹ), ông Peter Firstbrook – Phó Chủ tịch phân tích của Gartner – đã đưa ra nhận định: trí tuệ nhân tạo tạo sinh (Generative AI) đang trở thành công cụ đắc lực cho tin tặc, nhất là trong việc cải tiến kỹ thuật tấn công xã hội và tự động hóa quy trình xâm nhập. Tuy nhiên, ông cũng nhấn mạnh: AI vẫn chưa tạo ra các kỹ thuật tấn công hoàn toàn mới.

1749702920005.png


Các chuyên gia an ninh mạng cho rằng AI đang giúp tin tặc rút ngắn thời gian viết phần mềm độc hại – loại mã có thể đánh cắp dữ liệu, theo dõi hoạt động máy tính hoặc thậm chí xóa sạch ổ cứng. Theo Firstbrook: “Không nghi ngờ gì nữa, công cụ hỗ trợ lập trình bằng AI đang là ‘vũ khí sát thương’ của Gen AI”.

Một nghiên cứu của HP vào tháng 9 cũng cho thấy hacker đã dùng AI để tạo ra Trojan truy cập từ xa. Báo cáo này được Firstbrook trích dẫn lại như một ví dụ rõ ràng về việc AI đã thực sự được dùng để tạo ra phần mềm độc hại mới, và xu hướng này đang tăng lên.

Đáng lo hơn, AI còn bị lợi dụng để tạo ra các gói tiện ích mã nguồn mở giả mạo – thứ mà các lập trình viên có thể vô tình tải về và tích hợp vào phần mềm của họ. Khi đó, phần mềm hợp pháp có thể bị cài mã độc ngay từ giai đoạn phát triển, dẫn đến việc ứng dụng bị xâm nhập ngay trước khi tung ra thị trường.

Điều này vốn đã có thể xảy ra trước khi AI ra đời, nhưng giờ đây, Gen AI đang khiến quy mô và tốc độ của những chiêu trò này trở nên khó kiểm soát hơn. Các kho lưu trữ mã như GitHub không thể gỡ bỏ kịp các gói mã độc được tạo hàng loạt. “Đây là trò chơi mèo vờn chuột, và Gen AI đang khiến tin tặc ra đòn nhanh hơn bao giờ hết”, Firstbrook cảnh báo.

Deepfake và tấn công bằng AI: Đáng sợ nhưng chưa phải thảm họa​

AI không chỉ được dùng để viết mã độc mà còn đang len lỏi vào các chiến dịch lừa đảo tinh vi hơn – như deepfake giọng nói và video. Theo khảo sát của Gartner, có 28% tổ chức từng đối mặt với tấn công bằng âm thanh deepfake, 21% bị tấn công bằng video deepfake và 19% bị vượt qua hệ thống bảo vệ sinh trắc học bằng deepfake truyền thông. Tuy nhiên, chỉ 5% trong số đó ghi nhận thiệt hại thực sự như mất tiền hoặc bị đánh cắp sở hữu trí tuệ.

Dù tác động hiện tại còn giới hạn, Firstbrook cho rằng đây là “một lĩnh vực mới rất đáng quan tâm”. Ông đưa ra phép so sánh: “Nếu tôi là nhân viên bán hàng và cần hỏi 100 người để được 1 người nói ‘đồng ý’, thì giờ chỉ cần hỏi 200 người – tôi đã tăng gấp đôi doanh số. Tin tặc cũng vậy. Nếu chúng tự động hóa toàn bộ quy trình tấn công, hiệu quả sẽ tăng vọt”.

Tuy nhiên, điều khiến các chuyên gia vẫn còn “thở phào” là: Gen AI chưa thực sự tạo ra kỹ thuật tấn công hoàn toàn mới. Theo dữ liệu từ MITRE ATT&CK – một cơ sở dữ liệu chiến thuật của hacker – mỗi năm chỉ có khoảng một hoặc hai kỹ thuật tấn công mới được ghi nhận. Firstbrook nói: “Cho đến nay vẫn chưa có kỹ thuật nào do AI tạo ra hoàn toàn, nhưng đó vẫn là điều khiến chúng tôi lo ngại”. (cybersecuritydive)
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2FpLWNvLWRhbmctZ2l1cC10aW4tdGFjLXRhbi1jb25nLW5oYW5oLWhvbi12YS1uZ3V5LWhpZW0taG9uLjYyODg0Lw==
Top