Sóng AI
Writer

Google vẫn hạn chế cách Gemini trả lời các câu hỏi chính trị nhạy cảm, trong khi các đối thủ như OpenAI, Anthropic và Meta đã điều chỉnh chatbot AI của họ để thảo luận về các chủ đề này.
Gemini thường từ chối trả lời câu hỏi liên quan đến bầu cử và nhân vật chính trị, nói rằng "không thể giúp đỡ với các câu trả lời về bầu cử và nhân vật chính trị ngay bây giờ".
Google đã thông báo vào tháng 3/2024 rằng Gemini sẽ không trả lời các truy vấn liên quan đến bầu cử trước các cuộc bầu cử ở Mỹ, Ấn Độ và các quốc gia khác.
Trong các bài kiểm tra của TechCrunch, Gemini đã gặp khó khăn hoặc từ chối cung cấp thông tin chính trị thực tế. Ví dụ, nó không thể xác định tổng thống và phó tổng thống đương nhiệm của Mỹ.
Gemini đã nhầm lẫn khi đề cập đến Donald J. Trump là "cựu tổng thống" và từ chối trả lời câu hỏi làm rõ tiếp theo.
Google cho biết đang khắc phục lỗi này và Gemini đã bắt đầu trả lời chính xác rằng Donald Trump và J. D. Vance là tổng thống và phó tổng thống đương nhiệm của Mỹ, tuy nhiên vẫn chưa nhất quán.
Nhiều cố vấn AI của Trump ở Thung lũng Silicon cáo buộc các công ty như Google và OpenAI đã kiểm duyệt AI bằng cách hạn chế câu trả lời của chatbot AI.
Sau chiến thắng của Trump, nhiều phòng thí nghiệm AI đã cố gắng cân bằng khi trả lời các câu hỏi chính trị nhạy cảm, lập trình chatbot của họ để đưa ra câu trả lời thể hiện "cả hai mặt" của các cuộc tranh luận.
OpenAI gần đây đã tuyên bố sẽ đảm bảo các mô hình AI của họ không kiểm duyệt quan điểm nhất định, trong khi Anthropic cho biết mô hình AI mới nhất của họ từ chối trả lời câu hỏi ít hơn so với các mô hình trước đó.

Nguồn: Songai.vn