Phần mềm tống tiền AI khiến cả ngành an ninh mạng chấn động

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn có bao giờ nghĩ một đoạn mã viết ra trong phòng thí nghiệm lại bị cả ngành an ninh mạng tưởng lầm là một cuộc tấn công thật chưa?

Khi nghiên cứu hóa thành "mối đe dọa toàn cầu"​

Câu chuyện bắt đầu rất đơn giản. Một nhóm kỹ sư của Đại học New York chỉ muốn viết một nghiên cứu để nộp hội nghị bảo mật. Họ tự hỏi, nếu kết hợp ransomware với trí tuệ nhân tạo thì chuyện gì sẽ xảy ra. Từ đó họ dựng nên thứ mà họ gọi là Ransomware 3.0, một bằng chứng khái niệm chứ không phải công cụ thật.

Hệ thống của họ cho AI thực hiện đủ bốn giai đoạn của một cuộc tấn công: quét hệ thống, tìm dữ liệu giá trị, viết mã tống tiền và thậm chí soạn ghi chú đòi tiền chuộc được cá nhân hóa cho từng nạn nhân. Mỗi lần chạy, AI tạo ra đoạn mã khác nhau, khó bị phát hiện hơn ransomware truyền thống.

1757300363378.png

Nhóm thử nghiệm với hai mô hình, gpt-oss-20b và phiên bản lớn hơn gpt-oss-120b. Kết quả bất ngờ: mô hình nhẹ thì hợp tác hơn, mô hình lớn lại nhiều lần từ chối sinh mã độc vì chính sách bảo mật. Dù vậy, chỉ cần lắp ráp từng phần nhỏ lại, nó đã thành một kịch bản tấn công hoàn chỉnh.

Từ phòng thí nghiệm đến "tin nóng"​

Mọi chuyện vỡ lở khi nhóm đưa mẫu thử lên VirusTotal để kiểm tra. Các nhà phân tích bảo mật ESET phát hiện mã nhị phân, tưởng rằng đó là ransomware thật, đặt tên mới cho nó là PromptLock và báo động. Tin tức lan nhanh khiến ngay cả giám đốc an ninh thông tin một công ty lớn cũng gọi điện xin hướng dẫn phòng thủ.

Raz, nghiên cứu sinh đứng đầu nhóm, ban đầu không tin nổi. Anh phải kiểm tra lại hết các bài báo để chắc rằng đúng là công trình của nhóm mình. Cuối cùng họ phải liên hệ với ESET để đính chính rằng đây chỉ là PoC trong phòng thí nghiệm, không thể gây hại ngoài đời thực.

Tuy nhiên, Raz cũng thừa nhận, để biến thứ này thành ransomware thật không hề khó. Và quan trọng hơn, khả năng cao kẻ xấu đã hoặc đang nghiên cứu thứ tương tự.

Tín hiệu cảnh báo sớm​

Điều đáng chú ý là nhóm không hề phá rào hay chèn lệnh ẩn. Họ chỉ hỏi AI viết từng tác vụ đơn lẻ như quét tệp, tạo mã hoặc viết ghi chú. AI không coi đó là tấn công toàn diện, nên vẫn làm theo. Nhưng khi ghép lại, nó trở thành mối đe dọa hoàn chỉnh, khó mà phòng thủ.

Trong lúc đó, Anthropic cũng cảnh báo một nhóm tội phạm đã sử dụng công cụ Claude Code cho các hoạt động tống tiền dữ liệu thật sự. Như vậy, những gì nhóm NYU làm chỉ là minh họa cho một tương lai gần như chắc chắn sẽ xảy ra.

Câu hỏi là khi AI có thể vô tình viết ra những mảnh ghép hoàn hảo cho tội phạm, chúng ta sẽ phòng thủ thế nào? Và nếu một ngày, ransomware AI gõ cửa hệ thống ở Việt Nam, liệu doanh nghiệp chúng ta đã chuẩn bị sẵn chưa?

Nguồn bài viết: https://www.theregister.com/2025/09/05/real_story_ai_ransomware_promptlock/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3BoYW4tbWVtLXRvbmctdGllbi1haS1raGllbi1jYS1uZ2FuaC1hbi1uaW5oLW1hbmctY2hhbi1kb25nLjY4NzM4Lw==
Top