Chúng ta có thể luật hóa yêu cầu chatbot AI phải nói sự thật không?

Checker

Writer
Trong thời gian gần đây, nhiều người đã thử nghiệm với các chatbot như ChatGPT. Mặc dù chúng có thể hữu ích, nhưng cũng không thiếu những ví dụ về việc chúng tạo ra thông tin sai lệch. Một nhóm các nhà khoa học từ Đại học Oxford đang đặt câu hỏi: liệu có chúng ta có thể luật hóa việc yêu cầu những chatbot này nói cho chúng ta biết sự thật không?

Sự trỗi dậy của các mô hình ngôn ngữ lớn​

Giữa tất cả những lời bàn tán về trí tuệ nhân tạo (AI), thứ dường như đã đạt đến những tầm cao mới trong vài năm trở lại đây, một nhánh của lĩnh vực này đã thu hút được nhiều sự chú ý hơn bất kỳ nhánh nào khác – ít nhất là với những người trong chúng ta không phải là chuyên gia về máy học. Đó là các mô hình ngôn ngữ lớn (LLM), tận dụng AI tạo ra để tạo ra những phản hồi thường có vẻ giống con người một cách kỳ lạ cho hầu hết mọi truy vấn mà bạn có thể nghĩ ra.

Những công cụ như ChatGPT và Gemini của Google dựa trên các mô hình được đào tạo trên lượng dữ liệu khổng lồ – bản thân nó đặt ra nhiều câu hỏi về quyền riêng tư và sở hữu trí tuệ – để cho phép chúng hiểu các truy vấn ngôn ngữ tự nhiên và tạo ra các phản hồi mạch lạc và có liên quan. Không giống như công cụ tìm kiếm, bạn không cần phải học bất kỳ cú pháp nào để giúp bạn thu hẹp kết quả. Về mặt lý thuyết, bạn chỉ cần đặt một câu hỏi như thể bạn đang nói to.

Khả năng của chúng chắc chắn là ấn tượng, và chúng chắc chắn có vẻ tự tin vào câu trả lời của mình. Chỉ có một vấn đề nhỏ - những chatbot này có xu hướng tỏ ra tự tin như nhau khi chúng hoàn toàn sai. Điều này có thể ổn, nếu chúng ta có thể nhớ rằng không nên tin vào mọi thứ chúng nói với chúng ta.
1724151891764.png

"Mặc dù các vấn đề phát sinh từ xu hướng nhân cách hóa máy móc đã được xác định rõ ràng, nhưng việc chúng ta dễ bị tổn thương khi coi các LLM như những người nói sự thật giống con người lại đặc biệt đáng lo ngại", các tác giả của bài báo mới viết, ám chỉ đến một tình huống mà bất kỳ ai từng tranh cãi với các trợ lý giọng nói Alexa hoặc Siri đều sẽ hiểu rõ.

“LLM không được thiết kế để nói lên sự thật theo bất kỳ ý nghĩa bao quát nào”.

Thật dễ dàng để gõ một câu hỏi cho ChatGPT và cho rằng nó đang "suy nghĩ" về câu trả lời theo cùng cách mà một con người sẽ làm. Đó là cách nó xuất hiện, nhưng đó không phải là cách các mô hình này hoạt động.

Đừng tin mọi thứ bạn đọc​

Theo như các tác giả giải thích, LLM “là các công cụ tạo văn bản được thiết kế để dự đoán chuỗi từ nào sẽ xuất hiện tiếp theo trong một đoạn văn bản”. Tính trung thực của các phản hồi của chúng chỉ là một thước đo mà các mô hình được đánh giá trong quá trình phát triển. Trong nỗ lực đưa ra câu trả lời “hữu ích” nhất, các tác giả lập luận rằng họ có thể thường xuyên đi chệch hướng sang sự đơn giản hóa quá mức, thiên vị và chỉ bịa đặt.

Các tác giả của nghiên cứu này không phải là những người đầu tiên lên tiếng cảnh báo về vấn đề này, một bài báo thậm chí còn gọi các mô hình là "những lời bịa đặt". Giáo sư Robin Emsley, biên tập viên của tạp chí Schizophrenia, đã công bố một bài tường thuật về trải nghiệm với ChatGPT vào năm 2023, trong đó nêu rằng, "Những gì tôi trải qua là bịa đặt và làm sai lệch". Chatbot đã tạo ra các trích dẫn cho các bài báo khoa học không tồn tại, cũng như một số trích dẫn không liên quan đến truy vấn. Những người khác đã báo cáo điều tương tự.

Họ làm tốt với những câu hỏi có câu trả lời rõ ràng, có thực tế khi – và điều quan trọng là – câu trả lời đó đã xuất hiện rất nhiều trong dữ liệu đào tạo của họ. Các mô hình này chỉ tốt khi dữ liệu mà chúng được đào tạo. Và, trừ khi bạn chuẩn bị kiểm tra thực tế cẩn thận bất kỳ câu trả lời nào bạn nhận được từ LLM, thì rất khó để biết thông tin chính xác đến mức nào – đặc biệt là khi nhiều thông tin không cung cấp liên kết đến tài liệu nguồn của họ hoặc đưa ra bất kỳ thước đo nào về sự tự tin.

Nhóm nghiên cứu tại Oxford viết rằng: "Không giống như người nói, LLM không có bất kỳ khái niệm nội tại nào về chuyên môn hay sự tự tin, thay vào đó, họ luôn 'cố gắng hết sức' để giúp đỡ và phản hồi một cách thuyết phục đối với lời nhắc được đưa ra".

Họ đặc biệt quan tâm đến tác động của cái mà họ gọi là "lời nói bất cẩn" và tác hại có thể gây ra bởi những phản hồi như vậy từ các LLM len lỏi vào cuộc trò chuyện ngoại tuyến của con người. Điều này khiến họ đặt ra câu hỏi liệu có thể có nghĩa vụ pháp lý được áp đặt cho các nhà cung cấp LLM để đảm bảo rằng các mô hình của họ nói lên sự thật hay không.

Nghiên cứu mới đã kết luận gì?​

Tập trung vào luật pháp hiện hành của Liên minh Châu Âu (EU), các tác giả nhận thấy rằng có rất ít kịch bản rõ ràng trong đó một tổ chức hoặc cá nhân có nghĩa vụ phải nói sự thật. Những kịch bản có tồn tại chỉ giới hạn ở các lĩnh vực hoặc tổ chức cụ thể và rất hiếm khi áp dụng cho khu vực tư nhân. Vì LLM hoạt động trên công nghệ tương đối mới nên phần lớn các quy định hiện hành không được soạn thảo theo các mô hình này.

Vì vậy, các tác giả đề xuất một khuôn khổ mới, “tạo ra nghĩa vụ pháp lý nhằm giảm thiểu lời nói bất cẩn đối với những người cung cấp cả chương trình LLM chuyên ngành hẹp và chuyên ngành chung”.

Bạn có thể tự nhiên hỏi, "Ai là người quyết định sự thật?", và các tác giả đã giải quyết vấn đề này bằng cách nói rằng mục đích không phải là ép các LLM đi theo một con đường cụ thể, mà là yêu cầu "tính đa dạng và tính đại diện của các nguồn". Về cơ bản, họ đề xuất rằng những người sáng tạo nên sự cân bằng giữa tính trung thực và "tính hữu ích", mà các tác giả cho rằng quá thiên về tính hữu ích. Điều này không dễ thực hiện, nhưng có thể thực hiện được .

Không có câu trả lời dễ dàng nào cho những câu hỏi này (từ chối trách nhiệm: chúng tôi chưa thử hỏi ChatGPT), nhưng khi công nghệ này tiếp tục phát triển, đó là những điều mà các nhà phát triển sẽ phải vật lộn. Trong khi đó, khi bạn đang làm việc với một LLM, có thể đáng để nhớ lại tuyên bố nghiêm túc này từ các tác giả: "Chúng được thiết kế để tham gia vào các cuộc trò chuyện bằng ngôn ngữ tự nhiên với mọi người và đưa ra những câu trả lời thuyết phục và hữu ích, bất kể sự thật của vấn đề đang được đề cập là gì."

Nghiên cứu này được công bố trên tạp chí Royal Society Open Science.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top