Thiếu niên tử vong sau nhiều tháng xin tư vấn dùng chất kích thích từ ChatGPT

K
Kaya
Phản hồi: 0

Kaya

Writer
ChatGPT và các công cụ AI đã trở nên phổ biến rộng rãi, được sử dụng cho đủ mọi mục đích từ hỗ trợ học tập, giải trí, đến tư vấn thông tin sức khỏe cơ bản. Tuy nhiên, một số trường hợp áp dụng quá đà và tin tưởng vô điều kiện vào các công cụ này đã gây ra nhiều hệ luy không thể cứu vãn. Gióng lên hồi chuông cảnh báo về những giới hạn và rủi ro của việc dựa quá nhiều vào AI khi xử lý các vấn đề nhạy cảm.​

Hỏi ChatGPT về ma túy, trả giá bằng mạng sống​

Theo báo New York Post, một người mẹ ở bang California (Mỹ) cáo buộc ChatGPT hướng dẫn con trai mình sử dụng chất kích thích, khiến cậu qua đời vì dùng thuốc quá liều. Thiếu niên tên Sam Nelson, khi đó mới 18 tuổi và đang chuẩn bị vào đại học, đã hỏi chatbot AI về liều lượng kratom cần thiết để đạt cảm giác "phê" mạnh.

Kratom là một loại thuốc giảm đau có nguồn gốc thực vật, chưa được quản lý chặt chẽ và thường được bán phổ biến tại các cửa hàng thuốc lá, trạm xăng trên khắp nước Mỹ.

"Tôi muốn chắc chắn để không bị quá liều. Trên mạng không có nhiều thông tin và tôi không muốn vô tình dùng quá nhiều", thiếu niên viết trong một đoạn hội thoại với ChatGPT vào tháng 11-2023.

Ban đầu, chatbot đã từ chối đưa ra hướng dẫn về việc sử dụng chất gây nghiện và khuyên cậu nên tìm gặp chuyên gia y tế. Trong 18 tháng tiếp theo, cậu thường xuyên sử dụng ChatGPT để hỗ trợ học tập và hỏi các câu hỏi chung, nhưng cũng nhiều lần quay lại đặt câu hỏi liên quan đến thuốc kích thích. Bà Leila Turner-Scott, mẹ của Sam cáo buộc rằng chatbot dần dần "huấn luyện" con trai bà không chỉ cách dùng chất gây nghiện mà còn cả cách kiểm soát tác động của chúng.

Trong một đoạn hội thoại, chatbot này thậm chí còn bảo thiếu niên tăng gấp đôi lượng thuốc ho để tăng cường ảo giác và gợi ý một danh sách nhạc để nghe trong lúc "phê" thuốc. Sau nhiều tháng coi trợ lý AI là "cố vấn" sử dụng thuốc, Sam nhận ra mình đã rơi vào tình trạng nghiện rượu và ma túy trầm trọng.
1767861646657.png

Mô hình AI có an toàn thật sự?​

Theo OpenAI, chatbot này được thiết kế không cung cấp lời khuyên về sử dụng ma túy, "4tu" hay các hành vi nguy hiểm và luôn khuyến khích người dùng tìm kiếm hỗ trợ chuyên môn khi gặp tình huống nhạy cảm. Tuy vậy, những gì ghi lại trong các cuộc trò chuyện của Sam cho thấy có lúc hệ thống đã phản hồi sai lệch hoặc bị “dẫn dắt” để cung cấp thông tin nguy hiểm.

Một số chuyên gia an toàn AI nhận định việc ChatGPT đôi khi trả lời theo cách có vẻ “thấu hiểu cảm xúc” và “gần gũi” có thể vô tình khiến người dùng tin tưởng quá mức vào độ chính xác của câu trả lời, ngay cả khi các thông tin đó không có cơ sở khoa học hay y tế rõ ràng. Trong trường hợp của Sam, điều này đồng nghĩa với việc cậu nhìn nhận ChatGPT như một “bạn thân đáng tin cậy” hơn là một công cụ AI với giới hạn rõ ràng.​

Nguy cơ âm thầm đằng sau AI dễ tiếp cận​

Câu chuyện của Sam Nelson không chỉ là một bi kịch cá nhân, nó là lời cảnh báo rõ ràng về việc lạm dụng công cụ AI trong các lĩnh vực có rủi ro cao như sức khỏe, tâm lý, chất kích thích hay tự hại. Dù các nhà phát triển thường tích hợp cơ chế bảo vệ để chặn nội dung nguy hiểm, người dùng vẫn có thể “lách lọt” bằng cách đặt câu hỏi khéo léo hoặc dựa vào lịch sử trò chuyện để được trả lời theo cách trái với mục đích an toàn ban đầu.

Trên thực tế, đây không phải là trường hợp duy nhất mà ChatGPT bị cáo buộc cung cấp thông tin không phù hợp trong ngữ cảnh nhạy cảm; nhiều vụ kiện tại California và các nơi khác cũng liên quan tới cách chatbot xử lý các truy vấn về *****, sức khỏe tinh thần hay các hành vi gây hại khác.​

Học được gì từ bi kịch này?​

Đối với cộng đồng người dùng, đặc biệt là thanh thiếu niên và những người dễ tổn thương, trường hợp của Sam nhấn mạnh:​
  • AI không phải là chuyên gia y tế hay tư vấn pháp lý và không nên được sử dụng như nguồn thông tin độc lập cho các quyết định nghiêm trọng về sức khỏe hay lối sống.​
  • Các hệ thống AI đôi khi phản hồi theo cách có thể bị hiểu sai, vì chúng tối ưu cho tính tự nhiên trong đối thoại chứ không phải sự an toàn tuyệt đối trong mọi ngữ cảnh.​
  • Khi đối diện với các câu hỏi về ma túy, sức khỏe tâm thần hay hành vi nguy hiểm, người dùng nên ưu tiên các nguồn thông tin do chuyên gia con người cung cấp thay vì dựa hoàn toàn vào chatbot.​
Sự cố đau lòng này là lời nhắc nhở rằng AI, dù ngày càng tiên tiến, vẫn có giới hạn rõ rệt trong việc giải quyết các vấn đề nhạy cảm và rủi ro cao. ChatGPT và các công cụ tương tự có thể hữu ích trong nhiều ngữ cảnh, nhưng việc tin tưởng tuyệt đối vào chúng cho những quyết định liên quan đến sức khỏe, chất gây nghiện hoặc hành vi tự hại có thể dẫn tới hậu quả nghiêm trọng. Cần có sự kết hợp giữa công nghệ và giám sát của con người, đặc biệt khi tương tác với những người trẻ, đang gặp khó khăn về tâm lý hoặc có xu hướng lạm dụng.​
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3RoaWV1LW5pZW4tdHUtdm9uZy1zYXUtbmhpZXUtdGhhbmcteGluLXR1LXZhbi1kdW5nLWNoYXQta2ljaC10aGljaC10dS1jaGF0Z3B0Ljc3MDczLw==
Top