ChatGPT cung cấp hướng dẫn khiến người đàn ông bị nhiễm độc nặng

From Beijing with Love
From Beijing with Love
Phản hồi: 0

From Beijing with Love

Cháu đã lớn thế này rồi à. Lại đây chú ôm cái coi.
Với sự tiến hóa và phát triển không ngừng của ChatGPT, nhiều người đã bắt đầu phụ thuộc quá mức vào nó, không chỉ để sắp xếp công việc và cuộc sống hàng ngày mà còn cho cả những vấn đề cá nhân sâu sắc. Chúng ta đã nghe những trường hợp kỳ lạ về những cuộc hôn nhân kết thúc do công cụ này truy ra bằng chứng ngoại tình, thậm chí cả những người dựa vào chatbot để trị liệu, một điều mà chính Sam Altman đã cảnh báo.

Và giờ đây, một trường hợp đáng lo ngại đã xuất hiện, nơi rủi ro của việc dựa vào trợ lý AI để được hướng dẫn về sức khỏe đã nảy sinh. Một người đàn ông 60 tuổi ở New York được cho là đã mắc phải một tình trạng hiếm gặp và nguy hiểm sau khi làm theo lời khuyên về chế độ ăn uống do mô hình này đưa ra. Một cảnh báo gần đây đến từ một tạp chí y khoa của Mỹ chống lại việc tìm kiếm lời khuyên y tế từ ChatGPT sau khi một người đàn ông bị bệnh nặng sau khi làm theo lời khuyên ăn kiêng từ chatbot.

Vụ việc này đã được công bố trên tạp chí y khoa Annals of Internal Medicine, nơi một báo cáo chi tiết về một người đàn ông 60 tuổi đã mắc phải chứng nhiễm độc brom (bromism) sau khi hành động theo sự hướng dẫn của trợ lý AI đã được công bố.

Người đàn ông xấu số này đã mắc phải tình trạng hiếm gặp và nguy hiểm này sau khi ông thay thế muối ăn thông thường (natri clorua) bằng natri bromua, một chất mà ông đã mua được trên mạng. ChatGPT đã đưa ra lời khuyên này khi ông hỏi về một chất thay thế tiềm năng cho muối. Người đàn ông này đã tiêu thụ natri bromua hàng ngày trong ba tháng, tin rằng đó là một giải pháp thay thế lành mạnh hơn.

1755421082293.png


Tuy nhiên, kết quả của việc này lại rất tàn khốc. Ông đã phát triển các triệu chứng hoang tưởng, mất ngủ, rối loạn tâm thần, và các triệu chứng thể chất nghiêm trọng khác, đến mức có lúc ông đã nghĩ rằng mình đang bị một trong những người hàng xóm đầu độc. Người đàn ông cuối cùng đã phải nhập viện, nơi các bác sĩ chẩn đoán mắc chứng nhiễm độc brom, là phản ứng độc hại do tiếp xúc quá nhiều với bromua. Sau khi ông ngừng tiêu thụ bromua và nhận được sự điều trị cần thiết, các triệu chứng của ông đã bắt đầu thuyên giảm.

Câu chuyện của bệnh nhân này cũng gióng lên hồi chuông báo động về việc AI nên được sử dụng một cách thận trọng, đặc biệt là trong các bối cảnh sức khỏe. Các nhà nghiên cứu thậm chí còn xem xét liệu ChatGPT có còn đưa ra những phản hồi như vậy hay không, và thực tế là, nó vẫn đang đề xuất bromua như một chất thay thế cho clorua. Không có một cảnh báo nào về độc tính được đưa ra, khiến cho các phản hồi càng trở nên đáng lo ngại hơn.

Chatbot không thể là các chuyên gia y tế và đưa ra cùng một sự phán đoán và trách nhiệm, và do đó, chúng không nên được xem là chuyên gia trong lĩnh vực này.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2NoYXRncHQtY3VuZy1jYXAtaHVvbmctZGFuLWtoaWVuLW5ndW9pLWRhbi1vbmctYmktbmhpZW0tZG9jLW5hbmcuNjczNDUv
Top