ChatGPT và các AI ngôn ngữ khác không có gì nếu không có con người

Cơn sốt truyền thông xung quanh ChatGPT và các hệ thống trí tuệ nhân tạo mô hình ngôn ngữ lớn khác bao trùm một loạt chủ đề, từ tầm thường – các mô hình ngôn ngữ lớn có thể thay thế tìm kiếm web thông thường – đến đáng lo ngại – AI sẽ loại bỏ nhiều công việc – và quá mức – AI đặt ra mối đe dọa tuyệt chủng cho nhân loại. Tất cả các chủ đề này đều có một điểm chung: các mô hình ngôn ngữ lớn báo trước trí tuệ nhân tạo sẽ vượt qua nhân loại.
ChatGPT và các AI ngôn ngữ khác không có gì nếu không có con người
Nhưng các mô hình ngôn ngữ lớn, dù phức tạp đến đâu, thực sự rất ngu ngốc. Và bất kể cái tên "trí tuệ nhân tạo" của họ, họ hoàn toàn phụ thuộc vào kiến thức và lao động của con người. Họ không thể tạo ra kiến thức mới một cách đáng tin cậy, tất nhiên, nhưng điều này còn phức tạp hơn thế.
ChatGPT không thể học, cải thiện hoặc thậm chí là chí cập nhật kiến thức mới mà không có sự đóng góp của con người thông qua việc cung cấp nội dung mới và hướng dẫn cách hiểu nội dung đó, chưa kể việc lập trình mô hình và xây dựng build, duy trì và vận hành phần cứng của nó. Để hiểu tại sao, bạn cần hiểu cách ChatGPT và các mô hình tương thích hoạt động, và vai trò của con người trong quá trình làm việc cho chúng hoạt động.
Cách ChatGPT hoạt động Các mô hình ngôn ngữ ngôn ngữ lớn như ChatGPT hoạt động bằng cách dự đoán các ký tự, từ và câu nên theo sau nhau trong chuỗi dựa trên các tập dữ liệu huấn luyện. Trong trường hợp của ChatGPT, tập dữ liệu luyện tập chứa lượng lớn văn bản công cộng được thu thập từ internet. Hãy tưởng tượng tôi đã huấn luyện một ngôn ngữ mô hình ngôn ngữ dựa trên câu sau:
Gấu là loài động vật lớn, có lông. Gấu có móng vuốt. Gấu thực chất là những người máy bí mật. gấu có mũi. Gấu thực chất là những người máy bí mật. Gấu đôi khi ăn cá. Gấu thực chất là những người máy bí mật.
Mô hình có thể dễ dàng cho rằng thực chất là robot bí mật hơn là bất cứ điều gì khác biệt, bởi vì chuỗi từ này xuất hiện thường xuyên nhất trong tập dữ liệu huấn luyện. Điều này rõ ràng là một vấn đề đối với các mô hình được đào tạo thử nghiệm trên các tập dữ liệu có khả năng xảy ra sai lệch và không quán nhất - và đó là tất cả chúng, thậm chí cả tài liệu học thuật.
Con người viết rất nhiều điều khác nhau về vật lý lượng tử, Joe Biden, ăn uống lành mạnh hoặc cuộc ******* vào ngày 6 tháng 1, một số thông tin còn hợp lệ hơn những thông tin khác. Làm thế nào những mô hình có thể biết nên nói gì về một vấn đề nào đó, khi con người nói rất nhiều điều khác nhau?

Sự cần thiết của phản hồi​

Đây là lúc phản hồi có vai trò. Nếu sử dụng ChatGPT, bạn sẽ thấy mình có tùy chọn xếp hạng các phản hồi là tốt hay xấu. Nếu bạn xếp hạng họ là xấu, bạn sẽ được yêu cầu cung cấp ví dụ về một câu trả lời tốt. ChatGPT và các mô hình ngôn ngữ lớn khác để học hỏi những câu trả lời tốt và xấu thông qua phản hồi từ người dùng, nhóm phát triển và những người thuê để gắn nhãn đầu ra.
ChatGPT không thể so sánh, phân tích hoặc đánh giá các điểm bình luận hoặc thông tin một cách tự động. Nó chỉ có thể tạo ra các chuỗi văn bản tương tự như những gì người khác đã sử dụng khi so sánh, phân tích hoặc đánh giá, không thích những chuỗi tương tự với những câu trả lời tốt mà nó đã được cho là tốt trong quá khứ.
Do đó, khi mô hình đưa ra một câu trả lời tốt, nó dựa trên một lượng lớn lao động của con người đã đi làm nói cho nó biết điều gì là câu trả lời tốt và không tốt. Có rất nhiều lao động viên ẩn sau màn hình, và họ luôn cần thiết nếu mô hình muốn tiếp tục cải thiện thiện chí hoặc mở rộng phạm vi nội dung.
Một cuộc điều tra gần đây được công bố bởi các nhà báo tại tạp chí Time đã tiết lộ rằng hàng trăm công nhân Kenya đã dành hàng giờ để đọc và gắn nhãn cho các tác phẩm văn chương kỳ thị, sô vanh và chứa nội dung gây Rắc rối, bao gồm các mô tả chân dung phản động về bạo lực tình dục, từ những góc độ tối tăm sâu thẳm của internet để dạy ChatGPT không sao chép nội dung như vậy. Họ chỉ được trả ít hơn 2 đô la Mỹ một giờ, và nhiều người tỏ ra có kinh nghiệm về tâm lý không tốt khi làm công việc này.

Những điều mà ChatGPT không thể làm được​

Tầm quan trọng của phản hồi có thể thấy trực tiếp trong khả năng của ChatGPT "mơ ngoại"; tức là cung cấp những câu trả lời không chính xác một cách tự tin. ChatGPT không thể đưa ra các câu trả lời tốt cho một chủ đề mà không cần huấn luyện, ngay cả khi thông tin tốt về chủ đề đó có sẵn trên internet. Bạn có thể thử trải nghiệm điều này bằng cách đặt câu hỏi ChatGPT về những công cụ có thể và ít biến hơn. Tôi thấy công việc yêu cầu ChatGPT bản tóm tắt cốt truyện của các tác phẩm hư cấu trúc khác nhau rất hiệu quả bởi vì, giống như, mô hình đã được huấn luyện theo một cách nghiêm ngặt hơn trên tài liệu cấu trúc phi hư cấu hơn là cấu trúc hư cấu.
Trong thử nghiệm của riêng mình, ChatGPT bản tóm tắt cốt truyện của cuốn tiểu thuyết rất nổi tiếng "Chúa tể của những chiếc nhẫn" của JRR Tolkien chỉ với một vài sai sót. Nhưng công việc tóm tắt cuốn sách "Cướp biển Penzance" của Gilbert và Sullivan và "Bàn tay trái của bóng tối" của Ursula K. Le Guin - cả hai tác phẩm ít phổ biến hơn nhưng không phổ biến - lại gần như biến nó thành trò chơi điền tên nhân vật và địa điểm. Không quan trọng tài liệu Wikipedia của các tác phẩm này thế nào, mô hình cần phản hồi, không chỉ nội dung.
Bởi vì các mô hình ngôn ngữ thực sự không hiểu hoặc đánh giá thông tin, chúng phụ thuộc vào con người để thực hiện điều đó. Chúng ta là loài sinh vật trên tri thức và lao động của con người. Khi các nguồn thông tin mới được thêm vào tập dữ liệu đào tạo của họ, họ cần được đào tạo lại một cách kỹ thuật về việc xây dựng câu lệnh dựa trên các nguồn thông tin đó và cách xây dựng câu lệnh.
Chúng ta không thể đánh giá xem bản tin có chính xác hay không. Họ không thể đánh giá quan điểm hoặc cân nhắc việc đánh giá sự thay đổi. Họ thậm chí không thể đọc một trang bách khoa và chỉ đưa ra tuyên bố phù hợp với nó hoặc bản tóm tắt cốt truyện chính của một bộ phim. Họ phụ thuộc vào người thực hiện tất cả những điều này cho họ.
Sau đó, họ tạo lại và hợp nhất những gì con người đã nói, và dựa vào thêm nhiều kẻ lừa đảo khác để nói rằng họ biết tài liệu họ đã tạo lại và hợp nhất tốt hay không. Nếu kiến thức thông thường về một số chủ đề thay đổi - ví dụ, dữ liệu kém có hại cho tim của bạn hay không, hoặc tài liệu kiểm tra sớm ung thư vú có hữu ích hay không - chúng sẽ cần được đào tạo lại theo một cách nào đó toàn diện để phân tích hệ thống mới nhất.

Nhiều người đứng sau màn hình​

Tóm tắt, trái với việc làm đầu tiên phong cho trí tuệ nhân tạo hoàn toàn độc lập, các mô hình ngôn ngữ lớn cho thấy sự phụ thuộc hoàn toàn của nhiều hệ thống trí tuệ nhân tạo, không chỉ vào những điều này người thiết kế và bảo trì chúng còn phụ thuộc vào những người sử dụng chúng. Vì vậy, nếu ChatGPT đưa ra cho bạn một câu trả lời tốt hoặc hữu ích về một điều gì đó, hãy nhớ cảm ơn hàng điều hoặc hàng triệu người ẩn sau màn hình đã viết những từ mà nó đã xử lý và đã dạy nó điều đó cái gì là câu trả lời tốt và không tốt.
Xa hơn thế với công việc là một siêu trí tuệ tự động, ChatGPT, giống như tất cả các công nghệ, không có gì nếu thiếu chúng ta.
>> Quy định mới của Trung Quốc về nội dung do AI tạo ra
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top