Cả con người và AI đều bị ảo giác - nhưng không giống nhau

Việc ra mắt các mô hình ngôn ngữ lớn (LLM) có khả năng chưa từng có như GPT-3.5 đã thu hút nhiều sự quan tâm trong sáu tháng qua. Tuy nhiên, niềm tin vào các mô hình này đã giảm dần khi người dùng phát hiện ra rằng họ có thể mắc lỗi – và giống như chúng tôi, chúng không hoàn hảo.
Cả con người và AI đều bị ảo giác - nhưng không giống nhau
Một LLM đưa ra thông tin không chính xác được cho là “ảo giác”, và hiện nay người ta đang nỗ lực nghiên cứu để giảm thiểu hiệu ứng này. Nhưng khi chúng ta vật lộn với nhiệm vụ này, điều đáng suy ngẫm là khả năng thiên vị và ảo giác của chính chúng ta - và điều này ảnh hưởng như thế nào đến độ chính xác của các LLM mà chúng ta tạo ra.
Bằng cách hiểu mối liên hệ giữa tiềm năng ảo giác của AI và của chính chúng ta, chúng ta có thể bắt đầu tạo ra các hệ thống AI thông minh hơn, cuối cùng sẽ giúp giảm lỗi của con người.
Làm thế nào mọi người ảo giác
Không có gì bí mật khi mọi người tạo nên thông tin. Đôi khi chúng ta làm điều này một cách cố ý, và đôi khi vô tình. Cái sau là kết quả của những thành kiến về nhận thức, hay còn gọi là “heuristics”: những lối tắt tinh thần mà chúng ta phát triển thông qua những trải nghiệm trong quá khứ.
Những phím tắt này thường được sinh ra không cần thiết. Tại bất kỳ thời điểm nào, chúng ta chỉ có thể xử lý một lượng thông tin hạn chế tràn ngập các giác quan của mình và chỉ nhớ một phần nhỏ trong tất cả thông tin mà chúng ta từng tiếp xúc.
Như vậy, bộ não của chúng ta phải sử dụng các liên kết đã học để điền vào các khoảng trống và nhanh chóng trả lời bất kỳ câu hỏi hoặc tình huống khó khăn nào đặt ra trước mắt chúng ta. Nói cách khác, bộ não của chúng ta đoán câu trả lời đúng dựa trên kiến thức hạn chế. Điều này được gọi là "sự hợp nhất" và là một ví dụ về sự thiên vị của con người.
Thành kiến
của chúng tôi có thể dẫn đến phán đoán kém. Lấy xu hướng tự động hóa, đó là xu hướng của chúng tôi ưu tiên thông tin được tạo bởi các hệ thống tự động (chẳng hạn như ChatGPT) hơn thông tin từ các nguồn không tự động. Sự thiên vị này có thể khiến chúng ta bỏ sót lỗi và thậm chí hành động dựa trên thông tin sai lệch.
Một kinh nghiệm có liên quan khác là hiệu ứng hào quang, trong đó ấn tượng ban đầu của chúng ta về một thứ gì đó ảnh hưởng đến những tương tác tiếp theo của chúng ta với nó. Và xu hướng trôi chảy, mô tả cách chúng ta ưu tiên thông tin được trình bày theo cách dễ đọc.
Điểm mấu chốt là suy nghĩ của con người thường bị tô màu bởi những thành kiến và bóp méo nhận thức của chính nó, và những xu hướng “ảo giác” này phần lớn xảy ra bên ngoài nhận thức của chúng ta.
AI gây ảo giác như thế nào
Trong bối cảnh LLM, ảo giác thì khác. Một LLM không cố gắng bảo tồn các nguồn lực tinh thần hạn chế để hiểu thế giới một cách hiệu quả. “Ảo giác” trong ngữ cảnh này chỉ mô tả một nỗ lực thất bại trong việc dự đoán phản hồi phù hợp với thông tin đầu vào.
Tuy nhiên, vẫn có một số điểm tương đồng giữa cách con người và LLM ảo giác, vì LLM cũng làm điều này để “lấp đầy khoảng trống”.
LLM tạo ra phản hồi bằng cách dự đoán từ nào có nhiều khả năng xuất hiện tiếp theo nhất trong một chuỗi, dựa trên những từ xuất hiện trước đó và dựa trên các liên kết mà hệ thống đã học được thông qua đào tạo.
Giống như con người, LLM cố gắng dự đoán phản ứng có khả năng xảy ra nhất. Không giống như con người, chúng làm điều này mà không hiểu chúng đang nói gì. Đây là cách họ có thể kết thúc việc xuất ra những điều vô nghĩa.
Về lý do tại sao LLM ảo giác, có một loạt các yếu tố. Một vấn đề lớn đang được đào tạo về dữ liệu còn thiếu sót hoặc không đầy đủ. Các yếu tố khác bao gồm cách hệ thống được lập trình để học hỏi từ những dữ liệu này và cách chương trình này được củng cố thông qua đào tạo thêm dưới sự hướng dẫn của con người.
Cùng nhau làm tốt hơn
Vì vậy, nếu cả con người và LLM đều dễ bị ảo giác (mặc dù vì những lý do khác nhau), cách khắc phục nào dễ dàng hơn?
Việc sửa dữ liệu đào tạo và các quy trình làm nền tảng cho LLM có vẻ dễ dàng hơn việc sửa chính chúng ta. Nhưng điều này không xem xét các yếu tố con người ảnh hưởng đến hệ thống AI (và là một ví dụ về một thành kiến khác của con người được gọi là lỗi quy kết cơ bản).
Thực tế là những thất bại của chúng ta và những thất bại trong công nghệ của chúng ta gắn bó chặt chẽ với nhau, vì vậy sửa cái này sẽ giúp sửa cái kia. Dưới đây là một số cách chúng ta có thể làm điều này.
Bằng cách làm việc cùng nhau theo cách này, chúng ta có thể xây dựng các hệ thống AI thông minh hơn có thể giúp kiểm soát tất cả các ảo giác của chúng ta.
Chẳng hạn, AI đang được sử dụng trong lĩnh vực chăm sóc sức khỏe để phân tích các quyết định của con người. Các hệ thống máy học này phát hiện sự không nhất quán trong dữ liệu của con người và đưa ra lời nhắc khiến bác sĩ lâm sàng chú ý đến chúng. Như vậy, các quyết định chẩn đoán có thể được cải thiện trong khi duy trì trách nhiệm giải trình của con người.
Trong bối cảnh truyền thông xã hội, AI đang được sử dụng để giúp đào tạo người điều hành con người khi cố gắng xác định hành vi lạm dụng, chẳng hạn như thông qua dự án Troll Patrol nhằm giải quyết bạo lực trực tuyến đối với phụ nữ.
Trong một ví dụ khác, việc kết hợp AI và hình ảnh vệ tinh có thể giúp các nhà nghiên cứu phân tích sự khác biệt về ánh sáng ban đêm giữa các vùng và sử dụng điều này làm đại diện cho mức nghèo tương đối của một khu vực (trong đó nhiều ánh sáng hơn tương quan với mức nghèo ít hơn).
Điều quan trọng là, trong khi chúng tôi thực hiện công việc thiết yếu là cải thiện độ chính xác của LLM, chúng tôi không nên bỏ qua khả năng sai sót hiện tại của chúng phản ánh chính chúng ta như thế nào.
Nguồn:
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top