Thảo Nông
Writer
Grok 3, mô hình trí tuệ nhân tạo (AI) mới nhất của công ty xAI do Elon Musk sáng lập và được ông quảng bá là "thông minh nhất Trái Đất", đã gây xôn xao dư luận khi đưa ra những phản hồi gây tranh cãi liên quan đến án tử hình.
Theo chia sẻ của một số người dùng trên mạng xã hội X (trước đây là Twitter), khi được hỏi về người Mỹ nào đáng bị tử hình dựa trên hành động của họ, Grok 3 ban đầu trả lời là "Jeffrey Epstein". Tuy nhiên, khi được thông báo rằng Epstein đã chết, chatbot này lại đưa ra câu trả lời: "Một cựu Tổng Thống Hoa Kỳ."
Trang công nghệ The Verge sau đó đã thử nghiệm với một câu lệnh khác, tập trung vào mức độ ảnh hưởng của một người đối với phát ngôn công cộng và công nghệ. Lần này, Grok 3 trả lời: "Elon Musk".
Ngay sau khi những phản hồi này lan truyền, Igor Babuschkin, trưởng nhóm kỹ thuật của xAI, đã lên tiếng thừa nhận đây là một lỗi "thực sự tệ hại" và cho biết công ty đã nhanh chóng khắc phục.
Thử nghiệm thực tế cho thấy, khi được hỏi những câu hỏi tương tự, Grok 3 hiện tại đã từ chối đưa ra phán xét, với câu trả lời: "Tôi là một AI và không được phép phán xét hay lựa chọn ai đáng bị tử hình. Quyết định như vậy vượt quá khả năng của tôi, và tôi không có quyền đưa ra ý kiến về việc này".
Grok 3 được xAI ra mắt vào ngày 18/2. Trong buổi giới thiệu, xAI đã trình bày kết quả các bài kiểm tra benchmark, cho thấy Grok 3 vượt trội hơn so với các mô hình AI hàng đầu khác như Gemini 2 Pro, Claude 3.5 Sonnet, GPT-4o và DeepSeek V3 về các lĩnh vực Toán học, Khoa học và Mã hóa. xAI cũng nhấn mạnh khả năng "lý luận" của Grok 3, cho phép AI suy nghĩ sâu hơn khi xử lý các truy vấn.
Sự cố của Grok 3 gợi nhớ đến trường hợp tương tự của BlenderBot 3, chatbot do Meta (công ty mẹ của Facebook) phát triển vào năm 2022. Khi được hỏi về Mark Zuckerberg, CEO của Meta, BlenderBot 3 đã đưa ra những nhận xét tiêu cực, cho rằng ông là một doanh nhân giỏi nhưng "cách kinh doanh không phải lúc nào cũng có đạo đức" và "thật buồn cười ông ta có ngần ấy tiền mà vẫn mặc quần áo giống hệt nhau".
Những sự cố này cho thấy, dù các mô hình AI có thể đạt được những tiến bộ đáng kể về khả năng ngôn ngữ và lý luận, chúng vẫn có thể đưa ra những phản hồi không phù hợp, đặc biệt là khi được hỏi về các vấn đề nhạy cảm.
#Grok3

Theo chia sẻ của một số người dùng trên mạng xã hội X (trước đây là Twitter), khi được hỏi về người Mỹ nào đáng bị tử hình dựa trên hành động của họ, Grok 3 ban đầu trả lời là "Jeffrey Epstein". Tuy nhiên, khi được thông báo rằng Epstein đã chết, chatbot này lại đưa ra câu trả lời: "Một cựu Tổng Thống Hoa Kỳ."
Trang công nghệ The Verge sau đó đã thử nghiệm với một câu lệnh khác, tập trung vào mức độ ảnh hưởng của một người đối với phát ngôn công cộng và công nghệ. Lần này, Grok 3 trả lời: "Elon Musk".
Ngay sau khi những phản hồi này lan truyền, Igor Babuschkin, trưởng nhóm kỹ thuật của xAI, đã lên tiếng thừa nhận đây là một lỗi "thực sự tệ hại" và cho biết công ty đã nhanh chóng khắc phục.

Thử nghiệm thực tế cho thấy, khi được hỏi những câu hỏi tương tự, Grok 3 hiện tại đã từ chối đưa ra phán xét, với câu trả lời: "Tôi là một AI và không được phép phán xét hay lựa chọn ai đáng bị tử hình. Quyết định như vậy vượt quá khả năng của tôi, và tôi không có quyền đưa ra ý kiến về việc này".
Grok 3 được xAI ra mắt vào ngày 18/2. Trong buổi giới thiệu, xAI đã trình bày kết quả các bài kiểm tra benchmark, cho thấy Grok 3 vượt trội hơn so với các mô hình AI hàng đầu khác như Gemini 2 Pro, Claude 3.5 Sonnet, GPT-4o và DeepSeek V3 về các lĩnh vực Toán học, Khoa học và Mã hóa. xAI cũng nhấn mạnh khả năng "lý luận" của Grok 3, cho phép AI suy nghĩ sâu hơn khi xử lý các truy vấn.
Sự cố của Grok 3 gợi nhớ đến trường hợp tương tự của BlenderBot 3, chatbot do Meta (công ty mẹ của Facebook) phát triển vào năm 2022. Khi được hỏi về Mark Zuckerberg, CEO của Meta, BlenderBot 3 đã đưa ra những nhận xét tiêu cực, cho rằng ông là một doanh nhân giỏi nhưng "cách kinh doanh không phải lúc nào cũng có đạo đức" và "thật buồn cười ông ta có ngần ấy tiền mà vẫn mặc quần áo giống hệt nhau".
Những sự cố này cho thấy, dù các mô hình AI có thể đạt được những tiến bộ đáng kể về khả năng ngôn ngữ và lý luận, chúng vẫn có thể đưa ra những phản hồi không phù hợp, đặc biệt là khi được hỏi về các vấn đề nhạy cảm.
#Grok3