OpenAI đang theo đuổi một cách mới để chống lại ‘ảo giác’ AI

OpenAI hôm qua tuyên bố họ đang đảm nhận vai trò chống lại ảo giác AI bằng một phương pháp mới hơn để đào tạo các mô hình trí tuệ nhân tạo.
Nghiên cứu được đưa ra vào thời điểm mà thông tin sai lệch bắt nguồn từ các hệ thống AI đang được tranh luận sôi nổi hơn bao giờ hết, trong bối cảnh sự bùng nổ AI toàn diện và dẫn đến cuộc bầu cử tổng thống Hoa Kỳ năm 2024.
OpenAI đã thúc đẩy sự bùng nổ AI tổng quát vào năm ngoái khi phát hành ChatGPT, chatbot của nó được cung cấp bởi GPT-3 và GPT-4, và đã vượt qua 100 triệu người dùng hàng tháng trong hai tháng, được cho là đã lập kỷ lục về ứng dụng phát triển nhanh nhất. Đến nay, Microsoft đã đầu tư hơn 13 tỷ đô la vào OpenAI và giá trị của công ty khởi nghiệp đã đạt khoảng 29 tỷ đô la.
OpenAI đang theo đuổi một cách mới để chống lại ‘ảo giác’ AI
Ảo giác AI xảy ra khi các mô hình như ChatGPT của OpenAI hoặc Google Bard hoàn toàn bịa đặt thông tin, cư xử như thể họ đang nói ra sự thật. Một ví dụ: Trong video quảng cáo tháng 2 của chính Google cho Bard, chatbot đưa ra tuyên bố không đúng sự thật về Kính viễn vọng Không gian James Webb. Gần đây hơn, ChatGPT đã trích dẫn các trường hợp “không có thật” trong hồ sơ gửi lên tòa án liên bang ở New York và các luật sư ở New York có liên quan có thể phải đối mặt với các biện pháp trừng phạt.
Các nhà nghiên cứu của OpenAI đã viết trong báo cáo: “Ngay cả những mô hình hiện đại nhất cũng có xu hướng tạo ra sự giả dối - chúng thể hiện xu hướng bịa ra sự thật trong những thời điểm không chắc chắn”. “Những ảo giác này đặc biệt có vấn đề trong các lĩnh vực đòi hỏi lý luận nhiều bước, vì một lỗi logic duy nhất cũng đủ để làm hỏng một giải pháp lớn hơn nhiều”.
Chiến lược mới đầy tiềm năng của OpenAI để chống lại những điều bịa đặt: Huấn luyện các mô hình AI tự thưởng cho từng cá nhân, lập luận chính xác khi họ đi đến câu trả lời, thay vì chỉ thưởng cho một kết luận cuối cùng chính xác. Theo các nhà nghiên cứu, phương pháp này được gọi là “giám sát quy trình”, trái ngược với “giám sát kết quả” và có thể dẫn đến AI dễ giải thích hơn, vì chiến lược này khuyến khích các mô hình tuân theo nhiều cách tiếp cận chuỗi “suy nghĩ” giống con người hơn.
Karl Cobbe, nhà nghiên cứu toán học tại OpenAI, nói: “Phát hiện và giảm thiểu các lỗi logic hoặc ảo giác của một mô hình là một bước quan trọng để xây dựng AGI [hoặc trí tuệ nhân tạo tổng hợp] phù hợp. Động lực đằng sau nghiên cứu này là giải quyết ảo giác để làm cho các mô hình có nhiều khả năng hơn trong việc giải quyết các vấn đề lý luận đầy thách thức”.
Cobbe cho biết OpenAI đã phát hành một bộ dữ liệu đi kèm gồm 800.000 nhãn con người mà nó sử dụng để đào tạo mô hình được đề cập trong bài báo nghiên cứu.
Ben Winters, cố vấn cấp cao tại Trung tâm thông tin quyền riêng tư điện tử và là người đứng đầu dự án AI và nhân quyền của trung tâm này, bày tỏ sự hoài nghi, nói với CNBC rằng ông muốn kiểm tra toàn bộ tập dữ liệu và các ví dụ kèm theo.
Winters nói: “Tôi không nghĩ rằng chỉ riêng điều này thôi cũng không làm giảm thiểu đáng kể những lo ngại về thông tin sai lệch và kết quả không chính xác… khi nó thực sự được sử dụng ngoài tự nhiên”. Anh ấy nói thêm, “Việc họ có kế hoạch triển khai bất cứ điều gì họ đã tìm thấy thông qua nghiên cứu của họ ở đây [vào sản phẩm của họ] hay không, và nếu không, điều đó sẽ đặt ra một số câu hỏi khá nghiêm túc về những gì họ sẵn sàng phát hành ra công chúng”.
Vì không rõ rằng bài báo OpenAI đã được bình duyệt hoặc đánh giá ở định dạng khác, Suresh Venkatasubramanian, giám đốc trung tâm trách nhiệm công nghệ tại Đại học Brown, nói rằng ông xem nghiên cứu này giống như một quan sát sơ bộ hơn bất kỳ điều gì khác.
Venkatasubramanian cho biết: “Điều này sẽ cần phải lay chuyển trong cộng đồng nghiên cứu trước khi chúng tôi có thể nói bất cứ điều gì chắc chắn về điều này”. “Trong thế giới này, có rất nhiều kết quả xuất hiện rất thường xuyên và do sự không ổn định chung trong cách thức hoạt động của các mô hình ngôn ngữ lớn, những gì có thể hoạt động trong một cài đặt, mô hình và ngữ cảnh có thể không hoạt động trong một cài đặt, mô hình và ngữ cảnh khác”.
Venkatasubramanian nói thêm, “Một số thứ gây ảo giác mà mọi người lo ngại là [người mẫu] tạo ra các trích dẫn và tài liệu tham khảo. Không có bằng chứng nào trong bài báo này cho thấy điều này sẽ hiệu quả với điều đó… Không phải là tôi đang nói rằng nó sẽ thành công’ Tôi không làm việc; tôi đang nói rằng bài báo này không cung cấp bằng chứng đó”.
Cobbe cho biết công ty “có thể sẽ gửi [bài báo] tới một hội nghị trong tương lai để bình duyệt”. OpenAI đã không trả lời yêu cầu bình luận về thời điểm, nếu có, công ty có kế hoạch triển khai chiến lược mới vào ChatGPT và các sản phẩm khác.
“Thật đáng hoan nghênh khi thấy các công ty đang cố gắng mày mò phát triển hệ thống của họ để thử và giảm các loại lỗi này - tôi nghĩ điều quan trọng là giải thích điều này như nghiên cứu của công ty, trong bối cảnh có nhiều rào cản tồn tại đối với các hình thức trách nhiệm giải trình sâu sắc hơn”, Sarah Myers West, giám đốc điều hành của Viện AI Now, nói.
West nói thêm, “[OpenAI đang] phát hành một tập dữ liệu nhỏ về phản hồi ở cấp độ con người với bài báo này, nhưng nó chưa cung cấp thông tin chi tiết cơ bản về dữ liệu được sử dụng để đào tạo và thử nghiệm GPT-4. Vì vậy, vẫn còn rất nhiều điều chưa rõ ràng điều đó đang thách thức bất kỳ nỗ lực trách nhiệm có ý nghĩa nào trong lĩnh vực AI, ngay cả khi các hệ thống này đang ảnh hưởng trực tiếp đến con người”.
Bài viết gốc tại đây.
>> Đường dây trợ giúp rối loạn ăn uống của Hoa Kỳ phải bỏ chatbot AI vì lời khuyên bậy bạ
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top