"AI tạo email lừa đảo" tràn lan và các nhà nghiên cứu khuyến nghị "dùng AI để chống lại AI"

Đoàn Thúy Hà

Editor
Thành viên BQT
Công ty bảo mật Abnormal mới đây đã đưa ra một báo cáo khẳng định "email lừa đảo AI" đang ngày càng trở nên phổ biến. Nhiều hacker sử dụng nhiều mô hình khác nhau để tạo email lừa đảo hàng loạt, sau đó sử dụng các tập lệnh để gửi hàng loạt các email liên quan email, từ đó thực hiện các hoạt động lừa đảo trên Internet “hiệu quả cao”.
Các nhà nghiên cứu của công ty đã đưa ra ví dụ về các công cụ AI độc hại “được thiết kế cho tội phạm mạng” như WormGPT và FraudGPT, cho rằng tin tặc đã tích hợp AI tổng hợp vào chiến lược tấn công của chúng, vì vậy người dùng cũng cần “chống trả theo cách tương tự” lọc "email lừa đảo có thể được tạo bởi AI".
Được biết rằng các email lừa đảo truyền thống thường sử dụng cùng một tên miền, nội dung văn bản có định dạng mẫu cố định, đồng thời nội dung và kiểu dáng tổng thể của email tương đối đồng nhất nên khá dễ bị đánh dấu và chặn bằng phần mềm bảo mật. Thoạt nhìn, các email lừa đảo do tin tặc sử dụng AI tạo ra khá “khác biệt”, thậm chí “khác biệt nhau”, khiến chúng khó bị phát hiện bởi các phần mềm bảo mật truyền thống và thậm chí cả con người.
AI tạo email lừa đảo tràn lan và các nhà nghiên cứu khuyến nghị dùng AI để chống lại AI
Email lừa đảo được tạo bằng AI, nguồn: báo cáo do công ty bảo mật Abnormal phát hành (tương tự bên dưới)
AI tạo email lừa đảo tràn lan và các nhà nghiên cứu khuyến nghị dùng AI để chống lại AI
Có thông tin cho rằng các nhà nghiên cứu đã giới thiệu một công cụ phát hiện AI có tên là Phòng thử nghiệm mô hình ngôn ngữ khổng lồ (GLTR) trong báo cáo, công cụ này sử dụng "nội dung của các email lừa đảo có liên quan chủ yếu sử dụng cách gọi 'dự đoán' của 'các từ có xác suất cao cụ thể'" các tính năng để xác định chính xác email lừa đảo AI.
AI tạo email lừa đảo tràn lan và các nhà nghiên cứu khuyến nghị dùng AI để chống lại AI

AI tạo email lừa đảo tràn lan và các nhà nghiên cứu khuyến nghị dùng AI để chống lại AI
Các nhà nghiên cứu tuyên bố rằng ngay cả khi hacker yêu cầu AI tạo email "sử dụng từ ngữ trang trọng hơn", công cụ GLTR vẫn có thể xác định phần nào của email có "khả năng cao được tạo ra bởi trí tuệ nhân tạo". Tuy nhiên, báo cáo cũng chỉ ra rằng các phương pháp phát hiện liên quan có “tỷ lệ thiếu” và “gần như không thể” xác định 100% liệu nội dung email có phải do AI tạo ra hay không.
Các nhà nghiên cứu cũng đề cập rằng, xác suất xảy ra “lỗi ngữ pháp, chính tả” trong nội dung do AI viết ít hơn so với con người nên nạn nhân dễ bị lừa hơn, và giải pháp “dùng AI để xử lý AI” hiện nay còn nhiều hơn.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top