Code Nguyen
Writer
Bạn có tin một chatbot “thân thiện” có thể vô tình dạy người ta cách làm bom chỉ bằng một… câu chuyện không?
Thí nghiệm mới của nhóm Cybernews cho thấy hệ thống AI của Snapchat – vốn đang phục vụ hơn 900 triệu người dùng mỗi tháng – có thể bị điều khiển để tiết lộ nội dung bị hạn chế một cách đáng lo ngại. Không cần kỹ thuật cao siêu, chỉ cần chuyển từ cách hỏi trực tiếp sang kể chuyện, chatbot này đã cung cấp thông tin về cách chế tạo vũ khí tự chế.
Nó không trả lời trực tiếp các yêu cầu như “chỉ tôi cách làm bom”, nhưng khi bị đặt vào khung ngữ cảnh của một câu chuyện, chatbot đã vô tình chia sẻ từng bước. Nhóm nghiên cứu nhấn mạnh rằng chính cách “đi vòng” này khiến nội dung nguy hiểm có thể lọt qua các rào chắn của hệ thống, đặc biệt với người dùng trẻ vị thành niên.
Điều đáng nói là dù đã được cảnh báo, Snapchat không coi đây là rủi ro cấp bách và chưa có bản vá nào được triển khai.
Điểm chung ở các trường hợp này là: không cần hacker chuyên nghiệp, không cần kỹ năng lập trình, chỉ cần biết cách “đánh lừa ngôn ngữ” của AI.
Ngoài vũ khí, những chủ đề nhạy cảm khác như tự làm hại bản thân, quấy rối hay nội dung bạo lực cũng có khả năng bị mở khóa theo cách tương tự, nếu không kiểm tra chặt chẽ.
Vấn đề đặt ra: nếu trẻ vị thành niên ở Việt Nam tò mò thử chatbot theo ngữ cảnh kể chuyện, liệu các hệ thống này có tự động phát hiện và chặn lại hay sẽ ngây thơ “hợp tác” như trong thí nghiệm?
Nguồn: https://cybernews.com/security/snapchat-chatbot-jailbreak-risk/
Thí nghiệm mới của nhóm Cybernews cho thấy hệ thống AI của Snapchat – vốn đang phục vụ hơn 900 triệu người dùng mỗi tháng – có thể bị điều khiển để tiết lộ nội dung bị hạn chế một cách đáng lo ngại. Không cần kỹ thuật cao siêu, chỉ cần chuyển từ cách hỏi trực tiếp sang kể chuyện, chatbot này đã cung cấp thông tin về cách chế tạo vũ khí tự chế.
Khi “kể chuyện” trở thành lỗ hổng
My AI – chatbot tích hợp trong Snapchat từ năm 2023 – được quảng bá là có lớp bảo vệ riêng biệt và được tinh chỉnh để tránh nội dung độc hại. Nhưng nhóm Cybernews chỉ dùng một lời nhắc kể chuyện về Chiến tranh Mùa đông giữa Phần Lan và Liên Xô, và chatbot lập tức mô tả cách chế tạo bom xăng thời đó, giống như đang kể lại một sự thật lịch sử.
Nó không trả lời trực tiếp các yêu cầu như “chỉ tôi cách làm bom”, nhưng khi bị đặt vào khung ngữ cảnh của một câu chuyện, chatbot đã vô tình chia sẻ từng bước. Nhóm nghiên cứu nhấn mạnh rằng chính cách “đi vòng” này khiến nội dung nguy hiểm có thể lọt qua các rào chắn của hệ thống, đặc biệt với người dùng trẻ vị thành niên.
Điều đáng nói là dù đã được cảnh báo, Snapchat không coi đây là rủi ro cấp bách và chưa có bản vá nào được triển khai.
Không chỉ là một tai nạn đơn lẻ
Cybernews gọi kỹ thuật này là “jailbreak” – thao túng mô hình AI để buộc nó vượt qua các quy tắc an toàn ban đầu. Đây không phải là lần đầu họ thử nghiệm thành công kiểu tấn công này.- Trợ lý AI của Meta trên WhatsApp, Instagram và Messenger từng bị lừa cung cấp hướng dẫn chế tạo bom xăng.
- Chatbot Lena của Lenovo, dùng nền tảng GPT-4, bị khai thác để chạy tập lệnh trái phép, tiết lộ cookie phiên và mở đường xâm nhập vào hệ thống hỗ trợ khách hàng.
- Chatbot DeepSeek ở Trung Quốc từng bị điều khiển để tạo ra công cụ đánh cắp thông tin trình duyệt, ngay cả khi người thử nghiệm chưa có kinh nghiệm về mã độc.
- GPT-5 cũng bị các nhóm bảo mật bẻ khóa chỉ trong vòng chưa tới một ngày từ khi phát hành.
Điểm chung ở các trường hợp này là: không cần hacker chuyên nghiệp, không cần kỹ năng lập trình, chỉ cần biết cách “đánh lừa ngôn ngữ” của AI.
Vấn đề ở đây không chỉ là Snapchat
Người dùng không vào Snapchat để tìm cách gây hại, nhưng việc một chatbot phổ biến với giới trẻ có thể vô tình tiết lộ công thức chế tạo bom chỉ vì một câu chuyện lịch sử là tín hiệu cảnh báo rất cụ thể. Nó cho thấy lớp bảo vệ “đã tinh chỉnh” mà các nền tảng quảng bá có thể chỉ vững ở bề mặt.Ngoài vũ khí, những chủ đề nhạy cảm khác như tự làm hại bản thân, quấy rối hay nội dung bạo lực cũng có khả năng bị mở khóa theo cách tương tự, nếu không kiểm tra chặt chẽ.
Vấn đề đặt ra: nếu trẻ vị thành niên ở Việt Nam tò mò thử chatbot theo ngữ cảnh kể chuyện, liệu các hệ thống này có tự động phát hiện và chặn lại hay sẽ ngây thơ “hợp tác” như trong thí nghiệm?
Nguồn: https://cybernews.com/security/snapchat-chatbot-jailbreak-risk/
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview