Tin tặc sử dụng AI của Anthropic để tự động hóa các cuộc tấn công mạng

myle.vnreview
Mỹ Lệ
Phản hồi: 0
Việc sử dụng tự động hóa AI trong các cuộc tấn công mạng đang là xu hướng ngày càng tăng, giúp tin tặc mở rộng quy mô và tăng tốc độ.

1763092223377.png

Theo tờ WSJ, các tin tặc Trung Quốc đã sử dụng công nghệ trí tuệ nhân tạo từ Anthropic để tự động hóa các vụ đột nhập vào các tập đoàn lớn và chính phủ nước ngoài trong một chiến dịch tấn công mạng hồi tháng 9, Anthropic cho biết trong công bố hôm 13/11.

Theo Jacob Klein, người đứng đầu bộ phận tình báo mối đe dọa của Anthropic, nỗ lực này tập trung vào hàng chục mục tiêu và liên quan đến mức độ tự động hóa mà các nhà điều tra an ninh mạng của Anthropic chưa từng thấy trước đây.

Tin tặc đã sử dụng AI trong nhiều năm để thực hiện các nhiệm vụ riêng lẻ như tạo email lừa đảo hoặc quét internet để tìm các hệ thống dễ bị tấn công, nhưng trong trường hợp này, 80% đến 90% cuộc tấn công được tự động hóa, với con người chỉ can thiệp vào một số ít điểm quyết định, Jacob Klein cho biết.

Tin tặc đã thực hiện các cuộc tấn công của chúng "chỉ bằng một cú nhấp chuột, và sau đó với sự tương tác tối thiểu của con người", Jacob Klein nói. Anthropic đã phá vỡ các chiến dịch và chặn tài khoản của tin tặc, nhưng trước đó đã có tới bốn lần xâm nhập thành công. Trong một trường hợp, tin tặc đã chỉ đạo các công cụ AI Claude của Anthropic truy vấn cơ sở dữ liệu nội bộ và trích xuất dữ liệu một cách độc lập.

“Người dùng chỉ tham gia vào một vài điểm nghẽn quan trọng, nói rằng, ‘Được rồi, tiếp tục đi’, ‘Đừng tiếp tục nữa’, ‘Cảm ơn thông tin này’, ‘Ồ, có vẻ không ổn, Claude, anh chắc chứ?’”

Việc kết hợp các tác vụ hack thành các cuộc tấn công gần như tự động là một bước tiến mới trong xu hướng tự động hóa đang phát triển, mang lại cho tin tặc quy mô và tốc độ tấn công lớn hơn.

Mùa hè này, công ty an ninh mạng Volexity đã phát hiện các tin tặc từ Trung Quốc sử dụng các công cụ AI để tự động hóa một phần của chiến dịch tấn công nhắm vào các tập đoàn, viện nghiên cứu và các cơ quan phi chính phủ. Tin tặc đã sử dụng mô hình ngôn ngữ lớn (LLM) để xác định đối tượng mục tiêu, cách tạo email lừa đảo và cách viết phần mềm độc hại để lây nhiễm cho nạn nhân, Steven Adair, chủ tịch của Volexity, cho biết. “AI đang trao quyền cho kẻ tấn công làm nhiều việc hơn, nhanh hơn”, ông nói.

Tuần trước, Google đã báo cáo rằng tin tặc từ Nga đã tấn công Ukraine bằng mô hình AI để tạo ra các hướng dẫn phần mềm độc hại tùy chỉnh theo thời gian thực.

Anthropic không tiết lộ những tập đoàn và chính phủ nào bị tin tặc tấn công, nhưng cho biết họ đã phát hiện ra khoảng 30 mục tiêu. Một số ít vụ tấn công mạng thành công trong một số trường hợp đã đánh cắp được thông tin nhạy cảm.

Tin tặc thường sử dụng các công cụ AI nguồn mở để thực hiện các cuộc tấn công vì mã nguồn mở được cung cấp miễn phí và có thể được sửa đổi để loại bỏ các hạn chế đối với hoạt động độc hại. Tuy nhiên, để sử dụng Claude cho các cuộc tấn công, các tin tặc phải vượt qua các biện pháp bảo vệ của Anthropic bằng cách sử dụng cái gọi là bẻ khóa - trong trường hợp này, chúng nói với Claude rằng chúng đang thực hiện kiểm tra bảo mật thay mặt cho các mục tiêu.

"Trong trường hợp này, chúng giả vờ làm việc cho các tổ chức kiểm tra bảo mật hợp pháp", Jacob Klein nói.

Anthropic cho biết các tin tặc cũng đã xây dựng một hệ thống để chia nhỏ từng phần của các chiến dịch, từ việc quét lỗ hổng bảo mật đến đánh cắp dữ liệu, thành các nhiệm vụ riêng biệt không gây báo động.

Anthropic cho biết sau các cuộc tấn công, họ đã cập nhật các phương pháp phát hiện việc sử dụng sai mục đích, khiến kẻ tấn công khó sử dụng Claude để thực hiện các hành vi tương tự trong tương lai.

1763092242421.png

Các vụ tấn công tự động không có khả năng hoàn toàn tự động, với cái gọi là ảo giác AI dẫn đến sai sót. Jacob Klein nói về một số nỗ lực tấn công: "Nó có thể nói, 'Tôi đã có thể truy cập vào hệ thống nội bộ này'" trong khi thực tế không phải vậy. "Nó sẽ phóng đại khả năng truy cập và khả năng của hệ thống, và đó là lý do cần có sự xem xét của con người."

Việc sử dụng các tác nhân AI để thực hiện các cuộc tấn công làm nổi bật những nguy cơ sử dụng kép của các công cụ AI. Anthropic cho biết họ hy vọng sẽ sử dụng AI để tăng cường khả năng phòng thủ an ninh mạng. Tuy nhiên, hệ thống AI mạnh hơn cũng đồng nghĩa với việc những kẻ tấn công mạnh hơn.

Anthropic cho biết chiến lược của họ là tập trung vào việc xây dựng các kỹ năng cho AI, mang lại lợi ích cho bên phòng thủ nhiều hơn bên tấn công, chẳng hạn như phát hiện lỗ hổng đã biết.

"Những công cụ kiểu này sẽ chỉ đẩy nhanh tiến độ thôi", Logan Graham, người điều hành nhóm Anthropic chuyên kiểm tra các rủi ro thảm khốc, cho biết. "Nếu chúng ta không tạo điều kiện cho bên phòng thủ có được lợi thế lâu dài đáng kể, tôi lo ngại rằng chúng ta có thể sẽ thua cuộc đua này."
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3Rpbi10YWMtc3UtZHVuZy1haS1jdWEtYW50aHJvcGljLWRlLXR1LWRvbmctaG9hLWNhYy1jdW9jLXRhbi1jb25nLW1hbmcuNzM4MDAv
Top