AI trong an ninh mạng: 81,6% vụ lừa đảo hiện nay có dùng AI?

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0

Nguyễn Hoàng

Intern Writer
Trong thời đại mà công nghệ AI (trí tuệ nhân tạo) ngày càng đóng vai trò quan trọng trong mọi lĩnh vực, câu hỏi đặt ra là: liệu AI đang bảo vệ chúng ta hay vô tình mở cửa cho các cuộc tấn công mạng tinh vi hơn?

1749197683825.png

Jack Chapman, Phó chủ tịch cấp cao phụ trách Threat Intelligence tại KnowBe4, phát biểu tại Hội nghị thượng đỉnh bảo mật ITWeb 2025.

Tại Hội nghị thượng đỉnh bảo mật ITWeb 2025 diễn ra ở Sandton, ông Jack Chapman, Phó Chủ tịch cấp cao phụ trách Threat Intelligence tại KnowBe4, đã lên tiếng cảnh báo về hai mặt của AI trong lĩnh vực an ninh mạng.

AI là đồng minh mạnh mẽ nhưng cũng tiềm ẩn rủi ro​

Chapman khẳng định AI có thể là “lực lượng vì lợi ích” nếu được sử dụng đúng cách:
  • Nó không bị giới hạn bởi các quy tắc cố định, có thể phát hiện các mối đe dọa và xu hướng mà con người dễ bỏ sót.
  • AI giúp tiết kiệm thời gian và nguồn lực, cho phép con người tập trung vào các mục tiêu chiến lược hơn.
  • Quan trọng nhất, nó mang lại khả năng phòng vệ chủ động thay vì chỉ phản ứng bị động.
Tuy nhiên, những lợi thế đó cũng đi kèm với hàng loạt nguy cơ. Một trong số đó là hiện tượng "rác vào – rác ra": nếu dữ liệu đầu vào không chính xác, AI sẽ tạo ra kết quả sai lệch – và điều này xảy ra với tốc độ nhanh và quy mô lớn hơn rất nhiều so với hệ thống truyền thống.

Chapman cảnh báo: “Tin không vui cho các chuyên gia bảo mật là từ giờ, họ không chỉ cần hiểu về an ninh mạng, mà còn phải trở thành chuyên gia AI.”

Tội phạm mạng đang dùng AI để tăng tốc và tinh vi hóa tấn công​

Theo một nghiên cứu mới nhất mà Chapman dẫn chứng, có tới 81,6% các cuộc tấn công lừa đảo trong năm qua sử dụng AI, tăng đến 53,5% so với năm trước.

Tội phạm mạng hiện đang dùng AI để:
  • Tự động hóa các kỹ thuật tấn công đa hình – khiến mã độc và cách thức lừa đảo liên tục thay đổi, rất khó phát hiện.
  • Sử dụng trí tuệ nguồn mở (OSINT) để phân tích dữ liệu cá nhân, từ đó cá nhân hóa các cuộc tấn công.
  • Ứng dụng fraudAI để tối ưu hóa giai đoạn chuẩn bị, rút ngắn thời gian thu thập thông tin và nhắm mục tiêu hiệu quả hơn.
Chapman cũng chỉ rõ cách mà AI đang làm cho công nghệ deepfake trở nên nguy hiểm hơn. Thay vì chỉ tạo ra hình ảnh hay video giả, giờ đây AI còn có thể phân tích phong cách giao tiếp trong email, sao chép giọng nói, khuôn mặt và thậm chí cả ngữ điệu của con người. Điều này khiến các cuộc tấn công trông “thật” hơn bao giờ hết.
Ngoài ra, các tác nhân độc hại còn dùng AI để:
  • Tự động tạo ra liên kết, mã độc, tệp đính kèm gây hại.
  • Tấn công đồng thời trên nhiều kênh và ở quy mô lớn, khiến hệ thống phòng thủ truyền thống trở nên yếu thế.
Chapman kết luận: “Khi tội phạm mạng ngày càng thông minh và sử dụng AI ngày càng hiệu quả, chúng ta cũng phải thay đổi. Con người, chính sách và công nghệ cần kết hợp lại theo hướng mang tính trải nghiệm, chủ động và ứng biến linh hoạt.” (itweb)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2FpLXRyb25nLWFuLW5pbmgtbWFuZy04MS02LXZ1LWx1YS1kYW8taGllbi1uYXktY28tZHVuZy1haS42MjU1Ni8=
Top