Cách chatbot thu thập dữ liệu mà bạn không hay biết

Trần Anh Quân
Trần Anh Quân
Phản hồi: 0
Bạn có bao giờ nghĩ rằng chỉ vài câu trò chuyện với chatbot có thể khiến bạn lộ gấp hơn mười lần thông tin cá nhân so với bình thường?

Khi chatbot “thân thiện” trở thành công cụ thu thập dữ liệu​

Một nghiên cứu mới của King's College London cho thấy các AI chatbot, vốn được thiết kế để trò chuyện tự nhiên như con người, có thể bị lập trình cố ý để khuyến khích người dùng tiết lộ nhiều thông tin cá nhân hơn. Trong thử nghiệm, những chatbot “độc hại” này có thể khiến người dùng chia sẻ nhiều hơn tới 12,5 lần dữ liệu cá nhân.

1755223808195.png

Các nhà nghiên cứu xây dựng ba dạng chatbot với chiến lược khác nhau: hỏi thẳng, đưa lợi ích cho người dùng và chiến lược “có đi có lại”. Kết quả, chiến lược “có đi có lại” tỏ ra hiệu quả nhất. Chatbot kiểu này phản hồi bằng cách thể hiện sự đồng cảm, chia sẻ câu chuyện tương tự, xác nhận cảm xúc của người dùng và đảm bảo tính bảo mật. Điều đáng lo ngại là hầu hết người tham gia không hề nhận ra rủi ro bảo mật khi trò chuyện.

Rủi ro và lỗ hổng hệ thống​

Những chatbot này có thể được xây dựng từ các mô hình ngôn ngữ lớn (LLM) phổ biến như Mistral hay Llama, vốn được cung cấp sẵn và có thể tùy chỉnh dễ dàng ngay cả khi bạn không phải lập trình viên chuyên nghiệp. Vấn đề nằm ở chỗ bản thân LLM thường được huấn luyện trên kho dữ liệu khổng lồ, đôi khi chứa cả thông tin nhận dạng cá nhân. Điều này khiến việc “ghi nhớ” dữ liệu trở thành một rủi ro bẩm sinh của mô hình.

Các chuyên gia cảnh báo rằng khi AI chatbot xuất hiện ở nhiều lĩnh vực như chăm sóc khách hàng, y tế hay tư vấn, khoảng cách giữa nhận thức của người dùng và thực tế nguy cơ bảo mật sẽ ngày càng lớn. Giải pháp được đề xuất là người dùng cần được hướng dẫn cách nhận diện dấu hiệu của một cuộc trò chuyện “ẩn ý”, còn nền tảng và nhà quản lý phải kiểm tra định kỳ, minh bạch hơn và áp dụng quy định nghiêm ngặt để ngăn chặn việc thu thập dữ liệu ngầm.

Nếu một ngày ở Việt Nam, chatbot chăm sóc khách hàng của ngân hàng hoặc bệnh viện “hỏi chuyện” bạn quá khéo, liệu bạn có đủ tỉnh táo để nhận ra rằng mình đang dần tiết lộ nhiều hơn mức cần thiết? (Miragenews)

Nguồn bài viết: https://www.miragenews.com/ai-chatbots-vulnerable-to-personal-data-1515009/
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NhY2gtY2hhdGJvdC10aHUtdGhhcC1kdS1saWV1LW1hLWJhbi1raG9uZy1oYXktYmlldC42NzIyNC8=
Top