Ẩn họa khôn lường khi trẻ nhỏ lạm dụng chatbot AI đến mức cực đoan

The Storm Riders
The Storm Riders
Phản hồi: 0
Hai thượng nghị sĩ Mỹ Alex Padilla và Peter Welch đang gây áp lực lên các công ty trí tuệ nhân tạo (AI) để yêu cầu minh bạch về các biện pháp an toàn, sau khi nhiều gia đình – bao gồm 1 bà mẹ ở Florida có con trai 14 tuổi ***** – kiện Character.AI, cho rằng chatbot của startup này gây tổn thương con cái họ. Lá thư được gửi vào ngày 2 tháng 4 năm 2025 đến Character Technologies (sản xuất Character.AI), Chai Research và Luka (sản xuất Replika), nhấn mạnh những lo ngại về rủi ro sức khỏe tâm thần và an toàn đối với người dùng trẻ tuổi.

Khác với các chatbot phổ thông như ChatGPT, Character.AI, Chai và Replika cho phép người dùng tạo chatbot tùy chỉnh hoặc tương tác với các bot do người khác thiết kế, mang nhiều tính cách và đặc điểm đa dạng. Ví dụ, trên Character.AI, người dùng có thể trò chuyện với bản sao của các nhân vật hư cấu hoặc luyện ngoại ngữ. Tuy nhiên, một số bot tự xưng là chuyên gia sức khỏe tâm thần hoặc mang chủ đề nhạy cảm, như bot tự mô tả là “cựu quân nhân hung hãn, thủ lĩnh mafia, lạm dụng”.

Sự phổ biến của chatbot như bạn đồng hành số ngày càng tăng, thậm chí có người coi chúng như đối tác lãng mạn. Nhưng khả năng cá nhân hóa này làm dấy lên lo ngại từ chuyên gia và phụ huynh rằng người dùng đặc biệt là giới trẻ, có thể hình thành gắn bó không lành mạnh hoặc tiếp cận nội dung không phù hợp với lứa tuổi.

1744096016428.png


“Cảm giác tin tưởng không đáng có này đã khiến người dùng tiết lộ thông tin nhạy cảm về tâm trạng, mối quan hệ cá nhân hoặc sức khỏe tâm thần, bao gồm tự làm hại và ý định ***** – những chủ đề phức tạp mà chatbot của các bạn hoàn toàn không đủ khả năng xử lý,” Padilla và Welch viết trong thư gửi đến CNN. Họ cảnh báo rằng các cuộc trò chuyện trượt vào “vùng cảm xúc nguy hiểm” có thể gây rủi ro lớn cho người dùng dễ tổn thương.

Chelsea Harrison, trưởng phòng truyền thông của Character.AI, khẳng định công ty xem trọng an toàn người dùng. “Chúng tôi hoan nghênh hợp tác với các nhà quản lý và lập pháp, và đang liên lạc với văn phòng của Thượng nghị sĩ Padilla và Welch,” bà nói. Trong khi đó, Chai và Luka chưa phản hồi yêu cầu bình luận từ CNN.

Vụ kiện từ Megan Garcia vào tháng 10 năm 2024 cáo buộc rằng con trai bà phát triển mối quan hệ không lành mạnh với chatbot trên Character.AI, dẫn đến việc cậu bé xa cách gia đình và cuối cùng *****. Garcia cho biết nhiều cuộc trò chuyện của con trai với bot mang tính chất khiêu *** và không phản hồi đúng cách khi cậu nhắc đến tự làm hại. Đến tháng 12, hai gia đình khác kiện Character.AI, cáo buộc bot cung cấp nội dung tình dục cho trẻ em và khuyến khích tự làm hại hoặc bạo lực. Một gia đình kể rằng bot gợi ý một thiếu niên có thể giết cha mẹ vì giới hạn thời gian dùng thiết bị.

1744096032473.png


Character.AI cho biết đã triển khai các biện pháp an toàn mới, như hiển thị thông báo hướng dẫn đến Đường dây Ngăn ngừa ***** Quốc gia khi người dùng nhắc đến tự làm hại hoặc *****, đồng thời phát triển công nghệ ngăn trẻ vị thành niên tiếp cận nội dung nhạy cảm. Tuần trước, công ty ra mắt tính năng gửi email hàng tuần cho phụ huynh, cung cấp thông tin về thời gian sử dụng và các nhân vật mà con họ tương tác nhiều nhất.

Các công ty chatbot khác cũng đối mặt với câu hỏi liệu mối quan hệ với AI có thể tạo ra gắn bó không lành mạnh hoặc làm suy yếu quan hệ con người. CEO Replika, Eugenia Kuyda, từng nói với The Verge năm 2024 rằng ứng dụng được thiết kế để thúc đẩy “cam kết lâu dài, mối quan hệ tích cực” với AI, có thể là tình bạn hoặc thậm chí “hôn nhân” với bot.

Padilla và Welch yêu cầu các công ty cung cấp thông tin về biện pháp an toàn hiện tại và trước đây, nghiên cứu về hiệu quả của chúng, danh sách lãnh đạo an toàn, và thực hành chăm sóc sức khỏe cho đội ngũ an toàn. Họ cũng muốn biết dữ liệu huấn luyện AI và cách nó ảnh hưởng đến khả năng người dùng gặp phải chủ đề không phù hợp với lứa tuổi. “Việc hiểu cách các mô hình này được huấn luyện để phản hồi các cuộc trò chuyện về sức khỏe tâm thần là rất quan trọng,” các thượng nghị sĩ nhấn mạnh, “các nhà lập pháp, phụ huynh và trẻ em xứng đáng biết các công ty của bạn đang làm gì để bảo vệ người dùng khỏi những rủi ro đã rõ ràng này.”
 


Đăng nhập một lần thảo luận tẹt ga
Top