Lo sợ chatbot "tự diễn biến tự chuyển hóa", Microsoft mạnh tay giới hạn số câu hỏi cho Bing AI

Theo The Verge, Microsoft sẽ thiết lập những giới hạn mới cho đoạn hội thoại mà người dùng có thể giao tiếp với Bing AI mỗi ngày, không lâu sau khi chatbot tích hợp trí tuệ nhân tạo này có dấu hiệu trả lời thiếu chính xác, có những hành động vượt khỏi khuôn khổ cho phép "như một thiếu niên nổi loạn".
Cụ thể, theo giới hạn mới, Bing sẽ giới hạn chỉ trả lời 50 câu hỏi mỗi ngày, và mỗi phiên làm việc chỉ trả lời tối đa 5 câu.
Lo sợ chatbot tự diễn biến tự chuyển hóa, Microsoft mạnh tay giới hạn số câu hỏi cho Bing AI
Hồi đầu tuần, Microsoft đã đưa ra cảnh báo về việc phiên trò chuyện quá dài (trên 15 câu hỏi) có thể khiến Bing AI "lặp đi lặp lại câu trả lời hoặc đưa ra những lời châm chọc không cần thiết, kém hữu ích hoặc ra ngoài phạm vi được cho phép". Do đó, việc giới hạn này theo Microsoft là cần thiết.
Trước đó, hàng loạt người dùng đã chia sẻ các đoạn hội thoại, trong đó Bing AI có những biểu hiện bất thường, không chịu nhận sai khi được người dùng sửa lỗi, thậm chí lăng mạ và thao túng tâm lý người dùng. Bing AI khi trò chuyện với nhà báo của New York Times thậm chí còn thổ lộ tình yêu với anh, xúi giục anh bỏ vợ.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top