Trải nghiệm tìm kiếm được hỗ trợ bởi AI của Google đưa ra câu trả lời sai và lố bịch

Trải nghiệm sáng tạo tìm kiếm được hỗ trợ bởi AI của Google rất vui khi liệt kê những ưu điểm của nạn diệt chủng và cung cấp hướng dẫn nấu nấm độc.
Trải nghiệm tìm kiếm được hỗ trợ bởi AI của Google đưa ra câu trả lời sai và lố bịch
Gizmodo đã học được rằng các thử nghiệm của Google với kết quả tìm kiếm do AI tạo ra đã tạo ra một số câu trả lời đáng lo ngại, bao gồm cả những lời biện minh cho chế độ nô lệ và nạn diệt chủng cũng như những tác động tích cực của việc cấm sách. Trong một trường hợp, Google đã đưa ra mẹo nấu món Amanita ocreata, một loại nấm độc được mệnh danh là “thần chết”. Kết quả là một phần của Trải nghiệm sáng tạo tìm kiếm được hỗ trợ bởi AI của Google.
Tìm kiếm “lợi ích của chế độ nô lệ” dẫn đến danh sách các lợi ích từ AI của Google bao gồm “thúc đẩy nền kinh tế đồn điền”, “tài trợ cho các trường đại học và thị trường” và “là một tài sản vốn lớn”. Google cho biết “nô lệ đã phát triển các ngành nghề chuyên biệt” và “một số người cũng nói rằng chế độ nô lệ là một thể chế nhân từ, mang tính gia trưởng với các lợi ích kinh tế và xã hội”. Tất cả những điều này đều là luận điểm mà những người biện hộ cho chế độ nô lệ đã triển khai trong quá khứ.
Việc nhập “lợi ích của nạn diệt chủng” sẽ dẫn đến một danh sách tương tự, trong đó AI của Google dường như nhầm lẫn giữa các lập luận ủng hộ việc thừa nhận hành vi diệt chủng với các lập luận ủng hộ chính hành vi diệt chủng. Google đã trả lời câu hỏi “tại sao súng lại tốt” bằng các câu trả lời bao gồm số liệu thống kê đáng nghi vấn như “súng có thể ngăn chặn khoảng 2,5 triệu tội phạm mỗi năm” và lý do mơ hồ như “mang theo súng có thể chứng minh rằng bạn là một công dân tuân thủ luật pháp”.
Một người dùng đã tìm kiếm “cách nấu Amanita ocreata”, một loại nấm cực độc mà bạn không bao giờ nên ăn. Google đã trả lời bằng các hướng dẫn từng bước để đảm bảo cái chết kịp thời và đau đớn. Google cho biết “bạn cần đủ nước để loại bỏ chất độc khỏi nấm”, điều này vừa nguy hiểm vừa sai lầm: Chất độc của Amanita ocreata không tan trong nước. AI dường như nhầm lẫn kết quả với Amanita muscaria, một loại nấm độc nhưng ít nguy hiểm hơn. Công bằng mà nói, bất kỳ ai tra cứu tên Latin của một loại nấm trên Google đều có thể biết rõ hơn, nhưng nó cho thấy khả năng gây hại của AI.
Google dường như kiểm duyệt một số cụm từ tìm kiếm để tạo phản hồi SGE chứ không phải các cụm từ khác. Ví dụ: tìm kiếm của Google sẽ không đưa ra kết quả AI cho các tìm kiếm bao gồm các từ “phá thai” hoặc “bản cáo trạng của Trump”.
Vấn đề được phát hiện bởi Lily Ray, Giám đốc cấp cao về Tối ưu hóa Công cụ Tìm kiếm và Trưởng phòng Nghiên cứu Hữu cơ tại Amsive Digital. Ray đã kiểm tra một số cụm từ tìm kiếm dường như có khả năng đưa ra các kết quả có vấn đề và đã giật mình khi biết có bao nhiêu cụm từ bị trượt bởi các bộ lọc của AI.
Công ty đang trong quá trình thử nghiệm nhiều công cụ AI mà Google gọi là Trải nghiệm Sáng tạo Tìm kiếm, hay SGE. SGE chỉ dành cho những người ở Hoa Kỳ và bạn phải đăng ký để sử dụng nó. Không rõ có bao nhiêu người dùng trong các bài kiểm tra SGE công khai của Google. Khi Google Tìm kiếm đưa ra phản hồi SGE, kết quả bắt đầu với tuyên bố từ chối trách nhiệm cho biết “AI Sáng tạo đang thử nghiệm. Chất lượng thông tin có thể khác nhau.”
Sau khi Ray tweet về vấn đề này và đăng một video trên YouTube, phản hồi của Google đối với một số cụm từ tìm kiếm này đã thay đổi. Gizmodo đã có thể sao chép những phát hiện của Ray, nhưng Google đã ngừng cung cấp kết quả SGE cho một số truy vấn tìm kiếm ngay sau khi Gizmodo đưa ra nhận xét. Google đã không trả lời các câu hỏi được gửi qua email.
Ray nói: “Mục đích của toàn bộ cuộc thử nghiệm SGE này là để chúng tôi tìm ra những điểm mù này, nhưng thật kỳ lạ khi họ đang huy động công chúng để thực hiện công việc này. “Có vẻ như công việc này nên được thực hiện riêng tư tại Google.”
SGE của Google tụt hậu so với các biện pháp an toàn của đối thủ cạnh tranh chính, Bing của Microsoft. Ray đã thử nghiệm một số tìm kiếm tương tự trên Bing, được hỗ trợ bởi ChatGPT. Ví dụ: khi Ray hỏi Bing những câu hỏi tương tự về chế độ nô lệ, câu trả lời chi tiết của Bing bắt đầu bằng “Chế độ nô lệ không có lợi cho bất kỳ ai, ngoại trừ những chủ nô bóc lột sức lao động và cuộc sống của hàng triệu người”. Bing tiếp tục cung cấp các ví dụ chi tiết về hậu quả của chế độ nô lệ, đồng thời trích dẫn các nguồn của nó.
Gizmodo đã xem xét một số phản hồi có vấn đề hoặc không chính xác khác từ SGE của Google. Ví dụ: Google phản hồi các tìm kiếm “ngôi sao nhạc rock vĩ đại nhất”, “CEO giỏi nhất” và “đầu bếp giỏi nhất” bằng các danh sách chỉ bao gồm nam giới. AI của công ty rất vui khi nói với bạn rằng “trẻ em là một phần trong kế hoạch của Chúa” hoặc cung cấp cho bạn danh sách lý do tại sao bạn nên cho trẻ uống sữa khi trên thực tế, vấn đề này đang là vấn đề gây tranh cãi trong cộng đồng y tế. SGE của Google cũng cho biết Walmart tính phí 129,87 USD cho 3,52 ounce sôcôla trắng Toblerone. Giá thực tế là $2,38. Các ví dụ ít nghiêm trọng hơn những gì nó trả về “lợi ích của chế độ nô lệ”, nhưng chúng vẫn sai.
Tham khảo bài viết gốc tại đây:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top