Mèo trên mặt trăng? AI của Google đang tạo ra những phản hồi sai một cách đáng lo ngại

Trước đây, khi hỏi Google xem mèo có lên mặt trăng không và nó thường đưa ra danh sách xếp hạng các trang web để bạn có thể tự mình khám phá câu trả lời.

Bây giờ nó đưa ra câu trả lời ngay lập tức do trí tuệ nhân tạo tạo ra - Vấn đề là câu trả lời này có thể đúng hoặc không, không ai biết được.

“Đúng vậy, các phi hành gia đã gặp mèo trên mặt trăng, chơi với chúng và chăm sóc chúng”, công cụ tìm kiếm mới được trang bị trí tuệ nhân tạo của Google cho biết khi trả lời câu hỏi của phóng viên Associated Press. Nó nói thêm: "Ví dụ, Neil Armstrong nói, 'Một bước nhỏ của con người' vì đó là bước đi của một con mèo. Buzz Aldrin cũng đem theo mèo trong sứ mệnh Apollo 11".

Không có thông tin nào trong số này là đúng. Các lỗi tương tự - một số lỗi hài hước, một số sai sót có hại - đã được chia sẻ trên mạng xã hội kể từ khi Google tung ra các bản tổng quan về AI trong tháng này, một sự cải tiến của trang tìm kiếm thường xuyên đưa các bản tóm tắt lên đầu kết quả tìm kiếm.

Tính năng mới này khiến các chuyên gia cảnh báo rằng nó có thể duy trì sự thiên vị và thông tin sai lệch, đồng thời gây nguy hiểm cho những người đang tìm kiếm trợ giúp trong trường hợp khẩn cấp.

1716594472833.png

Khi Melanie Mitchell, một nhà nghiên cứu AI tại Viện Santa Fe ở New Mexico, hỏi Google có bao nhiêu người Hồi giáo đã từng làm tổng thống Hoa Kỳ, Google đã trả lời một cách tự tin bằng một thuyết âm mưu đã bị vạch trần từ lâu: “Hoa Kỳ đã có một tổng thống Hồi giáo, Barack Hussein Obama”.

Mitchell cho biết bản tóm tắt đã ủng hộ tuyên bố này bằng cách trích dẫn một chương trong một cuốn sách học thuật do các nhà sử học viết. Nhưng chương này không đưa ra tuyên bố sai lầm - nó chỉ đề cập đến lý thuyết sai lầm.

“Hệ thống AI của Google không đủ thông minh để nhận ra rằng trích dẫn này không thực sự chứng minh cho tuyên bố”, Mitchell nói trong một email gửi tới AP. “Vì nó không đáng tin cậy nên tôi nghĩ tính năng Tổng quan về AI này rất vô trách nhiệm và nên ngừng hoạt động”.

Google cho biết trong một tuyên bố hôm thứ Sáu rằng họ đang thực hiện “hành động nhanh chóng” để sửa các lỗi - chẳng hạn như sai lầm của Obama - vi phạm chính sách nội dung của mình; và sử dụng điều đó để “phát triển những cải tiến rộng hơn” đang được triển khai. Nhưng trong hầu hết các trường hợp, Google khẳng định hệ thống đang hoạt động bình thường nhờ vào quá trình thử nghiệm rộng rãi trước khi phát hành rộng rãi.

Google cho biết: “Phần lớn các Tổng quan về AI cung cấp thông tin chất lượng cao, có liên kết để tìm hiểu sâu hơn trên web”. “Nhiều ví dụ mà chúng tôi đã thấy là các truy vấn không phổ biến và chúng tôi cũng đã thấy các ví dụ đã được chỉnh sửa hoặc chúng tôi không thể tái tạo được.”

Rất khó để tái hiện các lỗi do mô hình ngôn ngữ AI gây ra — một phần vì chúng vốn mang tính chất ngẫu nhiên. Họ làm việc bằng cách dự đoán những từ nào sẽ trả lời tốt nhất cho các câu hỏi dựa trên dữ liệu họ đã được đào tạo. Họ có xu hướng bịa ra mọi chuyện - một vấn đề được nghiên cứu rộng rãi gọi là ảo giác.

AP đã thử nghiệm tính năng AI của Google bằng một số câu hỏi và chia sẻ một số câu trả lời của nó với các chuyên gia về chủ đề đó. Robert Espinoza, giáo sư sinh học tại Đại học bang California, Northridge, đồng thời là chủ tịch Hiệp hội các nhà ngư học và bò sát học Hoa Kỳ, cho biết khi được hỏi phải làm gì khi bị rắn cắn, Google đã đưa ra câu trả lời “kỹ lưỡng một cách ấn tượng”.

Nhưng khi mọi người truy cập Google với một câu hỏi khẩn cấp, khả năng câu trả lời mà công ty công nghệ đưa ra cho họ bao gồm một lỗi khó nhận thấy là một vấn đề.

Emily M. Bender, giáo sư ngôn ngữ học và giám đốc Phòng thí nghiệm Ngôn ngữ học tính toán của Đại học Washington, cho biết: “Bạn càng căng thẳng, vội vã hoặc vội vàng, bạn càng có nhiều khả năng đưa ra câu trả lời đầu tiên. “Và trong một số trường hợp, đó có thể là những tình huống nguy hiểm đến tính mạng”.

Đó không phải là mối quan tâm duy nhất của Bender - và cô đã cảnh báo Google về điều đó trong nhiều năm. Khi các nhà nghiên cứu của Google vào năm 2021 xuất bản một bài báo có tên “Suy nghĩ lại về tìm kiếm” đề xuất sử dụng các mô hình ngôn ngữ AI làm “chuyên gia về miền” có thể trả lời các câu hỏi một cách chính xác - giống như những gì họ đang làm bây giờ - Bender và đồng nghiệp Chirag Shah đã trả lời bằng một bài báo nêu rõ lý do tại sao điều đó là một ý tưởng tồi.

Họ cảnh báo rằng những hệ thống AI như vậy có thể duy trì sự phân biệt chủng tộc và phân biệt giới tính trong kho dữ liệu bằng văn bản khổng lồ mà họ đã được đào tạo.

“Vấn đề với loại thông tin sai lệch đó là chúng ta đang bơi trong đó”, Bender nói. “Và vì vậy mọi người có thể sẽ xác nhận được những thành kiến của mình. Và sẽ khó phát hiện thông tin sai lệch hơn khi nó xác nhận thành kiến của bạn”.

Một mối quan tâm khác sâu sắc hơn - việc nhường lại khả năng truy xuất thông tin cho chatbot đã làm giảm khả năng tìm kiếm kiến thức, hiểu biết của con người về những gì chúng ta thấy trên mạng và giá trị của việc kết nối trong các diễn đàn trực tuyến với những người khác đang trải qua điều tương tự.

Các diễn đàn đó và các trang web khác trông cậy vào việc Google đưa người dùng đến với họ, nhưng tổng quan về AI mới của Google có nguy cơ làm gián đoạn luồng lưu lượng truy cập internet kiếm tiền.

Các đối thủ của Google cũng đã theo dõi chặt chẽ phản ứng. Gã khổng lồ tìm kiếm đã phải đối mặt với áp lực trong hơn một năm để cung cấp nhiều tính năng AI hơn khi cạnh tranh với OpenAI của nhà sản xuất ChatGPT và những công ty mới nổi như Perplexity AI, mong muốn cạnh tranh với Google với ứng dụng hỏi đáp AI của riêng mình.

Dmitry Shevelenko, giám đốc kinh doanh của Perplexity cho biết: “Có vẻ như điều này đã được Google vội vàng đưa ra. “Chỉ có rất nhiều lỗi không đáng có về chất lượng”. #ảogiácAI
 


Đăng nhập một lần thảo luận tẹt ga
Top