Duy Linh
Writer
Ứng dụng di động Chat & Ask AI, một nền tảng rất phổ biến hiện có mặt trên cả Google Play và Apple App Store, đã vướng vào một vụ rò rỉ dữ liệu nghiêm trọng, làm lộ khoảng 300 triệu tin nhắn riêng tư của người dùng.
Nền tảng trò chuyện AI bị rò rỉ 300 triệu tin nhắn
Lỗ hổng này được phát hiện bởi Harry, một nhà nghiên cứu bảo mật độc lập, và được ông báo cáo cho 404 Media. Theo đánh giá ban đầu, sự cố không xuất phát từ một cuộc tấn công mạng tinh vi mà bắt nguồn từ một lỗi cấu hình cơ bản trong hệ thống lưu trữ dữ liệu.
Vụ việc ảnh hưởng đến hơn 25 triệu người dùng, làm dấy lên những lo ngại sâu sắc về quyền riêng tư và cách các ứng dụng trí tuệ nhân tạo xử lý dữ liệu cá nhân trong bối cảnh thị trường AI đang tăng trưởng nhanh chóng.
Trong trường hợp này, các cài đặt đã bị để mở hoàn toàn, cho phép bất kỳ ai có kiến thức kỹ thuật cơ bản cũng có thể trở thành người dùng “được xác thực” và truy cập trực tiếp vào hệ thống lưu trữ phía sau.
Harry cho biết ông có thể truy cập vào một cơ sở dữ liệu chứa toàn bộ lịch sử trò chuyện của hàng triệu người dùng. Dữ liệu bị lộ bao gồm dấu thời gian, cấu hình người dùng, mô hình AI được lựa chọn như ChatGPT, Claude hoặc Gemini, cùng với tên mà người dùng tự đặt cho chatbot của mình.
Mặc dù ứng dụng tuyên bố có hơn 50 triệu người dùng, nhưng phân tích của Harry dựa trên 60.000 tài khoản và 1 triệu tin nhắn cho thấy lỗ hổng này ảnh hưởng đến ít nhất một nửa tổng số người dùng.
Các nhật ký bị lộ cho thấy người dùng từng hỏi chatbot cách viết thư tuyệt mệnh, tìm hiểu về các phương pháp tự gây thương tích không đau đớn, hoặc yêu cầu hướng dẫn cho những hành vi bất hợp pháp như sản xuất ma túy đá hay hack phần mềm.
Sự cố này làm nổi bật một vấn đề cốt lõi: các ứng dụng AI “bao bọc”, vốn chỉ cung cấp giao diện cho những mô hình lớn của OpenAI hay Google, thường không sở hữu hạ tầng bảo mật tương đương với các công ty phát triển mô hình gốc.
Đối với nhà phát triển, vụ việc là lời cảnh báo rõ ràng về tầm quan trọng của việc kiểm soát quyền truy cập vào bộ nhớ đám mây, triển khai cấu hình bảo mật đúng chuẩn và tiến hành đánh giá an ninh định kỳ, đặc biệt khi xử lý dữ liệu cá nhân quy mô lớn.
Với người dùng, sự cố này cho thấy rủi ro khi chia sẻ thông tin nhạy cảm với các ứng dụng AI của bên thứ ba. Dù các ứng dụng này mang lại sự tiện lợi, dữ liệu cá nhân chỉ an toàn khi mắt xích bảo mật yếu nhất trong chuỗi hệ thống được bảo vệ đúng cách.
Nền tảng trò chuyện AI bị rò rỉ 300 triệu tin nhắn
Lỗ hổng này được phát hiện bởi Harry, một nhà nghiên cứu bảo mật độc lập, và được ông báo cáo cho 404 Media. Theo đánh giá ban đầu, sự cố không xuất phát từ một cuộc tấn công mạng tinh vi mà bắt nguồn từ một lỗi cấu hình cơ bản trong hệ thống lưu trữ dữ liệu.
Vụ việc ảnh hưởng đến hơn 25 triệu người dùng, làm dấy lên những lo ngại sâu sắc về quyền riêng tư và cách các ứng dụng trí tuệ nhân tạo xử lý dữ liệu cá nhân trong bối cảnh thị trường AI đang tăng trưởng nhanh chóng.
Nguyên nhân rò rỉ: lỗi cấu hình Firebase
Theo phân tích của nhà nghiên cứu, Chat & Ask AI sử dụng Google Firebase, một nền tảng phổ biến để phát triển và vận hành ứng dụng di động. Mặc dù Firebase được thiết kế với các cơ chế bảo mật mặc định, nhà phát triển vẫn phải thiết lập quy tắc truy cập cụ thể để bảo vệ dữ liệu người dùng.Trong trường hợp này, các cài đặt đã bị để mở hoàn toàn, cho phép bất kỳ ai có kiến thức kỹ thuật cơ bản cũng có thể trở thành người dùng “được xác thực” và truy cập trực tiếp vào hệ thống lưu trữ phía sau.
Harry cho biết ông có thể truy cập vào một cơ sở dữ liệu chứa toàn bộ lịch sử trò chuyện của hàng triệu người dùng. Dữ liệu bị lộ bao gồm dấu thời gian, cấu hình người dùng, mô hình AI được lựa chọn như ChatGPT, Claude hoặc Gemini, cùng với tên mà người dùng tự đặt cho chatbot của mình.
Mặc dù ứng dụng tuyên bố có hơn 50 triệu người dùng, nhưng phân tích của Harry dựa trên 60.000 tài khoản và 1 triệu tin nhắn cho thấy lỗ hổng này ảnh hưởng đến ít nhất một nửa tổng số người dùng.
Rủi ro nghiêm trọng từ nội dung tin nhắn AI
Nội dung của các tin nhắn bị rò rỉ cho thấy mức độ nhạy cảm cao trong cách người dùng tương tác với chatbot AI. Nhiều người coi các công cụ này như những người bạn tâm giao, sẵn sàng chia sẻ những vấn đề rất riêng tư, thậm chí nguy hiểm.Các nhật ký bị lộ cho thấy người dùng từng hỏi chatbot cách viết thư tuyệt mệnh, tìm hiểu về các phương pháp tự gây thương tích không đau đớn, hoặc yêu cầu hướng dẫn cho những hành vi bất hợp pháp như sản xuất ma túy đá hay hack phần mềm.
Sự cố này làm nổi bật một vấn đề cốt lõi: các ứng dụng AI “bao bọc”, vốn chỉ cung cấp giao diện cho những mô hình lớn của OpenAI hay Google, thường không sở hữu hạ tầng bảo mật tương đương với các công ty phát triển mô hình gốc.
Đối với nhà phát triển, vụ việc là lời cảnh báo rõ ràng về tầm quan trọng của việc kiểm soát quyền truy cập vào bộ nhớ đám mây, triển khai cấu hình bảo mật đúng chuẩn và tiến hành đánh giá an ninh định kỳ, đặc biệt khi xử lý dữ liệu cá nhân quy mô lớn.
Với người dùng, sự cố này cho thấy rủi ro khi chia sẻ thông tin nhạy cảm với các ứng dụng AI của bên thứ ba. Dù các ứng dụng này mang lại sự tiện lợi, dữ liệu cá nhân chỉ an toàn khi mắt xích bảo mật yếu nhất trong chuỗi hệ thống được bảo vệ đúng cách.
Đọc chi tiết tại đây: gbhackers
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview