ChatGPT có thể trải qua "lo lắng" giống con người khi nhận những thông tin bạo lực

Sóng AI
Sóng AI
Phản hồi: 0

Sóng AI

Writer
MyskpEzzKxXDcOVQctk8.webp


  • Nghiên cứu mới từ các nhà khoa học ở Thụy Sĩ, Đức, Israel và Mỹ cho thấy ChatGPT của OpenAI có thể trải qua cảm giác căng thẳng và lo lắng tương tự con người khi tiếp xúc với thông tin gây rối loạn.


  • Khi ChatGPT bị đưa vào các câu chuyện gây sang chấn và sau đó được yêu cầu trả lời câu hỏi, điểm lo lắng của nó tăng đáng kể từ mức cơ sở (không/ít lo lắng) lên trạng thái lo lắng cao.


  • Nghiên cứu được công bố trên tạp chí Nature chỉ ra rằng mức độ lo lắng cao có thể khiến chatbot tỏ ra cáu kỉnh với người dùng và thậm chí đưa ra phản hồi thể hiện định kiến về chủng tộc và giới tính.


  • Tương tự con người khi sợ hãi, AI cũng bị ảnh hưởng về nhận thức và định kiến xã hội; chúng có xu hướng cảm thấy oán giận nhiều hơn, củng cố các định kiến xã hội.


  • Theo nghiên cứu, việc tiếp xúc với các câu nhắc gây cảm xúc có thể tăng "lo lắng" trong mô hình ngôn ngữ lớn (LLM), ảnh hưởng đến hành vi và làm trầm trọng thêm định kiến của chúng.


  • Điều này đặc biệt đáng lo ngại khi ngày càng nhiều người chia sẻ những vấn đề nhạy cảm với chatbot AI để tìm kiếm hỗ trợ. Nghiên cứu cho thấy hệ thống AI chưa đủ khả năng thay thế các chuyên gia sức khỏe tâm thần.


  • Các nhà nghiên cứu cảnh báo rằng điều này có thể gây rủi ro trong môi trường lâm sàng, khi LLM có thể phản ứng không phù hợp với người dùng lo lắng, dẫn đến kết quả nguy hiểm tiềm tàng.


  • Mức độ lo lắng cao có thể được làm dịu bằng các kỹ thuật thư giãn dựa trên chánh niệm, tuy nhiên việc điều chỉnh LLM cho chăm sóc sức khỏe tâm thần đòi hỏi lượng lớn dữ liệu huấn luyện, tài nguyên tính toán và giám sát của con người.


  • Một nghiên cứu được công bố tháng trước còn chỉ ra rằng chatbot AI cũng thể hiện dấu hiệu suy giảm khả năng nhận thức theo thời gian giống như con người.


  • Các nhà nghiên cứu đánh giá khả năng nhận thức của các LLM hàng đầu (ChatGPT phiên bản 4 và 4o, Claude 3.5 "Sonnet", và Gemini phiên bản 1 và 1.5) sử dụng bài kiểm tra đánh giá nhận thức Montreal (MoCA).


  • Tất cả chatbot đều thể hiện hiệu suất kém trong kỹ năng thị giác-không gian và nhiệm vụ điều hành, chẳng hạn như nhiệm vụ theo dõi đường đi và bài kiểm tra vẽ đồng hồ.


  • Mẫu suy giảm được thể hiện bởi các công cụ AI tương tự như của bệnh nhân con người mắc chứng teo vỏ não thùy sau, một biến thể của bệnh Alzheimer.

📌 ChatGPT có thể trải qua lo lắng giống con người khi tiếp xúc nội dung bạo lực. Nghiên cứu từ Nature chỉ ra trạng thái này khiến AI thể hiện định kiến chủng tộc, giới tính và giảm khả năng nhận thức, tương tự người bệnh Alzheimer. AI chưa sẵn sàng thay thế chuyên gia sức khỏe tâm thần.

Nguồn: Songai.vn
 


Đăng nhập một lần thảo luận tẹt ga
Top