Giáo sư, Chủ tịch Đại học Thanh Hoa chia sẻ: Tại sao các mô hình ngôn ngữ lớn lại thể hiện khả năng gần với AGI?

Đoàn Thúy Hà

Editor
Thành viên BQT
"Hãy cố gắng tìm cách làm cho máy móc sử dụng ngôn ngữ, hình thành các khái niệm trừu tượng, giải quyết các vấn đề mà hiện tại con người chưa thể giải quyết và tự cải thiện bản thân... Đối với trí tuệ nhân tạo hiện tại, vấn đề hàng đầu là làm cho máy móc hành xử giống con người". Năm 1956, định nghĩa về trí tuệ nhân tạo được đưa ra tại Hội nghị Dartmouth. Kể từ đó đến nay, lịch sử của trí tuệ nhân tạo đã gần 70 năm.
Ngày nay, với sự đột phá của các mô hình ngôn ngữ lớn, con người cảm thấy chúng ta đã tiến một bước gần hơn đến AGI. Nhà triết học Ludwig Wittgenstein có một câu nói nổi tiếng: “Ranh giới của ngôn ngữ là ranh giới của tư duy”. AI hiện đã chứng tỏ được khả năng làm chủ ngôn ngữ của con người, liệu trong tương lai AI có thực sự có thể chạm tới ranh giới tư duy của con người và tái tạo trí thông minh của con người?
Tương lai sẽ là AI cho Tools (con người vẫn sẽ thống trị thế giới tương lai) hay Tools for AI ( AI sẽ thống trị tương lai)?
Giáo sư, Chủ tịch Đại học Thanh Hoa chia sẻ: Tại sao các mô hình ngôn ngữ lớn lại thể hiện khả năng gần với AGI?
Đây là một câu hỏi triết học kích thích tư duy mà vẫn chưa có câu trả lời rõ ràng. Tuy nhiên, sự phát triển nhanh chóng của AI đang định hình lại con đường phát triển công nghệ và xã hội loài người, ngoài các mô hình ngôn ngữ rộng lớn, chúng ta cũng nên suy nghĩ về những câu hỏi sâu sắc hơn: Sự đột phá hiện nay về trí tuệ AI đến từ đâu? AI sẽ phát triển ở đâu trong tương lai? Sự phát triển của trí tuệ nhân tạo sẽ có tác động gì đến sự đổi mới khoa học và sự hợp tác giữa con người và máy móc trong tương lai?
Giáo sư Chu Bowen, Chủ tịch Đại học Thanh Hoa, Giáo sư thường trực của Khoa Kỹ thuật Điện tử, Thành viên IEEE &CAAI, đồng thời là người sáng lập Xianyuan Technology, gần đây đã tiến hành một cuộc thảo luận nội bộ chuyên sâu về các vấn đề trên tại [Tuần lễ Công nghệ Tencent 2023] AIGC. Dưới đây là tổng hợp những chia sẻ của Giáo sư Chu về trí tuệ nhân tạo.
1. Liệu một mô hình lớn có thể giải quyết được mọi vấn đề?
Hướng thứ nhất là các mô hình lớn cần đảm nhiệm các nhiệm vụ của những cảnh phức tạp hơn.
Một số câu chuyện cười đang lan truyền trên mạng, nói đùa rằng những mô hình ngôn ngữ lớn dường như chỉ giỏi thơ ca và hội họa, trong khi người ta vẫn miệt mài làm nhiều công việc khác nhau. Điều này thực sự xuất phát từ thực tế là các mô hình lớn chưa có khả năng xử lý nhiều tác vụ phức tạp. Mặc dù nó đã đạt được tiến bộ đáng kể về lý luận, đối thoại và tóm tắt, nhưng làm thế nào để nó giải quyết được những vấn đề thực tế hơn trong thế giới thực phức tạp là một hướng quan trọng để phát triển các mô hình lớn.
Hướng thứ hai là khả năng chuyên môn của các mô hình lớn.
Mặc dù hai câu hỏi có liên quan với nhau nhưng chúng không giống nhau. Những vấn đề phức tạp không nhất thiết đòi hỏi khả năng chuyên môn cao; những vấn đề phức tạp có thể bao gồm sự kết hợp của một loạt các vấn đề đơn giản. Vì vậy, làm thế nào để phân tách các vấn đề phức tạp thành các vấn đề đơn giản hơn là một hướng, còn chuyên môn hóa là một hướng khác. Nhiều người ban đầu bỏ qua tầm quan trọng của chuyên môn hóa. Ví dụ, vào đầu năm 2023, sau khi ChatGPT xuất hiện, nhiều người kỳ vọng rằng một mô hình lớn có thể giải quyết được mọi vấn đề nên họ không xem xét đến vấn đề chuyên môn hóa. Mở rộng chiều thời gian đến vô tận, đây vẫn là một câu hỏi bỏ ngỏ, tức là nếu GPT4 không đủ năng lực thì liệu chúng ta có thể dựa vào GPT5, GPT6...? Nhưng xét từ tương lai gần, câu trả lời chắc chắn sẽ là phủ định.
Xin trích dẫn một bài báo xuất bản vào tháng 4 năm nay của cựu Chủ tịch Google Eric Schmidt và một giáo sư tại Đại học Stanford, có tựa đề “Có phải thế giới chỉ cần một mô hình ngôn ngữ khổng lồ để giải quyết mọi vấn đề?”
Kết luận đạt được bởi bài viết này cũng là tiêu cực. Bài viết này tuy dài nhưng theo quan điểm của tôi, có thể tóm tắt là tìm ra sự cân bằng giữa “giá trị cao” và “khối lượng lớn”. Họ trình bày một biểu đồ trong bài báo, với trục hoành biểu thị quy trình làm việc và trục tung biểu thị giá trị, để hiển thị hiệu suất của các mô hình lớn khác nhau trong các tình huống khác nhau. Như được hiển thị bên dưới, biểu đồ này tuân thủ các quy tắc của nhiều hoạt động triển khai công nghệ AI và tạo ra giá trị.
Trong các tình huống sử dụng tần suất cao, các mô hình AI thông thường có thể tạo ra giá trị nhất định, tuy nhiên tiềm năng giá trị này còn hạn chế. Sự suy giảm hoạt động hàng tháng của ChatGPT cũng phần nào xác nhận quan điểm này. Các mô hình AI tổng quát tưởng chừng như phù hợp với nhiều nhiệm vụ khác nhau nhưng giá trị thực tế của từng nhiệm vụ lại có hạn, đồng thời cũng có những yêu cầu đối với mô hình, đó là chi phí lý luận phải thấp hơn giá trị mang lại, điều này khiến cho yêu cầu về lý luận càng cấp thiết hơn.
Tương ứng, người đứng đầu trong Workflow (quy trình công việc) thể hiện tiềm năng giá trị cực kỳ cao nên mô hình cần có tính chuyên môn hóa cao . Trong các kịch bản ứng dụng hạn chế, điều này sẽ mang lại giá trị cao.
Chúng ta hy vọng trả lời được ba câu hỏi cốt lõi sau:
1. Đâu là điểm đột phá của trí tuệ AI hiện nay?
2. Hướng phát triển tương lai của AI là gì?
3. Sự phát triển của trí tuệ nhân tạo sẽ có tác động gì đến đổi mới khoa học và hợp tác giữa con người và máy móc trong tương lai?
Trước hết, tôi nghĩ những thay đổi cốt lõi do ChatGPT mang lại có hai chiều.
Ở chiều thứ nhất, sự ra đời của ChatGPT biến “AI cạnh tranh với con người” thành “AI cộng tác và tương tác với con người”.
Trước ChatGPT, từ AIphaGo đến Deep Blue đến Watson. Mỗi khi AI xuất hiện trên các mặt báo, đằng sau đó là cuộc cạnh tranh giữa AI và những con người mạnh nhất hành tinh để thu hút sự chú ý của công chúng. Nhưng tại sao lần này ChatGPT lại gây sốt lớn hơn?
Lý do lớn nhất là ChatGPT không còn cạnh tranh với những người khác mà có thể làm việc với hàng nghìn người bình thường như bạn và tôi để giải quyết tốt hơn các vấn đề trong đời thực từ góc độ hợp tác và tương tác. AI như vậy chắc chắn sẽ mang lại giá trị thị trường và quy mô lớn hơn AI cạnh tranh với con người.
Đây là quan điểm dài hạn của tôi rằng giá trị lớn nhất của AI nằm ở việc cộng tác và tương tác với mọi người cũng như học hỏi thông qua tương tác. Kiểu học tập này không chỉ bao gồm việc tiếp thu các kỹ năng mà còn liên kết các giá trị để hợp tác giải quyết vấn đề. Khi xem xét AI nên giải quyết những vấn đề gì và nó nên giải quyết những vấn đề gì, ChatGPT hiện phù hợp hơn với những kỳ vọng về vấn đề này.
Trong chiều hướng thứ hai, tôi muốn chia sẻ một số suy nghĩ của tôi ở New York vào năm 2016. Vào thời điểm đó, chúng tôi đã thảo luận về xu hướng phát triển trong tương lai của trí tuệ nhân tạo tại một hội nghị với một số nhà nghiên cứu trí tuệ nhân tạo trên khắp thế giới.
Tôi đã đề cập đến một khái niệm vào thời điểm đó, liên quan đến sự phát triển của trí tuệ nhân tạo, tôi nghĩ nó sẽ được chia thành ba giai đoạn sau năm 2016, như thể hiện trong hình bên dưới.
Khi đó, chúng ta đều cho rằng mục tiêu cuối cùng của trí tuệ nhân tạo là đạt được AGI, tức là thông minh hơn con người và có khả năng học hỏi liên tục nên phải chuẩn bị sẵn việc quản trị, giám sát để nhận ra rằng mọi người đều có thể nhìn thấy. Tương ứng, tôi gọi trí tuệ nhân tạo năm 2016 là Trí tuệ nhân tạo hẹp (ANI), là giai đoạn đầu tiên. Định nghĩa của nó là hầu hết việc đào tạo, học tập về trí tuệ nhân tạo thời điểm này đều xuất phát từ dữ liệu được dán nhãn và giám sát thủ công; phạm vi nhiệm vụ hẹp; nếu thực hiện nhiệm vụ mới thì phải đào tạo lại; chúng ta hoàn toàn biết “AI” đó có thể làm được những gì và không thể làm được. Điều thứ hai, mặc dù không nhất thiết phải thỏa mãn, nhưng cho phép chúng ta ngủ yên vào ban đêm.
Lúc đó tôi đã đề xuất rằng sẽ có một giai đoạn thứ hai cần thiết theo hướng AGI, được gọi là ABI (Trí tuệ nhân tạo rộng). Định nghĩa của nó:
Đầu tiên, nó phải là một lượng lớn việc học tự giám sát và không yêu cầu chú thích bổ sung.
Thứ hai, nó phải là end-to-end, AI có thể tự thực hiện và hoàn thành các nhiệm vụ phức tạp, đồng thời có khả năng phân tách các nhiệm vụ phụ và học tập đa nhiệm một cách tự nhiên. Lấy dịch thuật giọng nói làm ví dụ, vào năm 2016, hầu hết các bản dịch giọng nói lần đầu tiên được nhận dạng, sau đó dịch và tổng hợp. Việc phân chia nhiệm vụ được đưa ra và dán nhãn theo cách thủ công theo từng giai đoạn. Cái gọi là ABI phải là end-to-end, khi nào nhận dạng và khi nào dịch, con người không cần đưa ra hướng dẫn mà AI tự quyết định và có thể không có ranh giới rõ ràng giữa các nhiệm vụ phụ.
Thứ ba, nó được đề xuất chuyển các nhiệm vụ phân loại và nhiệm vụ ra quyết định thành trợ lý sáng tạo.
Giáo sư, Chủ tịch Đại học Thanh Hoa chia sẻ: Tại sao các mô hình ngôn ngữ lớn lại thể hiện khả năng gần với AGI?
Nhà vật lý nổi tiếng Feynman
Bức hình trên là của nhà vật lý nổi tiếng người Mỹ Feynman, ông nói: “Cái gì tôi không tạo ra được thì tôi thực sự không hiểu”. Feynman chắc chắn đại diện cho trình độ cao nhất của con người, và AI cũng vậy, nếu AI không thể sáng tạo thì AI không thực sự hiểu được.
Cái gọi là hiểu ngôn ngữ tự nhiên và cái gọi là điểm chuẩn đều không phải là hiểu biết thực sự, chỉ có buộc nó tạo ra thì chúng ta mới có thể đảo ngược và hiểu được nó.
Chúng tôi từng nghĩ rằng ABI sẽ là cách duy nhất để chuyển đổi sang AGI, nhưng giờ đây ChatGPT sẽ được triển khai vào năm 2022 và 2023.
Dựa trên nhận định của ABI lúc đó, tôi đã tập trung vào công việc tự chú ý nhiều đầu, vì theo tư duy end-to-end, làm thế nào để mô hình học các nhiệm vụ không liên quan gì đến nhiệm vụ xuôi dòng Trong số đó, việc thể hiện ngôn ngữ tự nhiên theo ngữ cảnh là rất quan trọng. Chúng tôi thực hiện nghiên cứu dựa trên các tài liệu liên quan đã được xuất bản tại ICLR vào đầu năm 2017.
Giáo sư, Chủ tịch Đại học Thanh Hoa chia sẻ: Tại sao các mô hình ngôn ngữ lớn lại thể hiện khả năng gần với AGI?
Bài báo do Google xuất bản năm 2017 đã trở thành một trong những ý tưởng cốt lõi của Transformer. Open AI lần đầu tiên nhận ra giá trị của Transformer và nhất quyết sử dụng phương pháp dự đoán Tiếp theo để đạt được hiệu quả cao và để đánh giá, đào tạo đại lý trên quy mô lớn thì GPT đã ra đời.
Tại sao Open AI lại có cách hiểu này? Nó đề cập trong báo cáo rằng mô hình ngôn ngữ lớn được đào tạo dựa trên kiến trúc tự chú ý nhiều đầu để dự đoán từ tiếp theo hiện là công cụ nén kiến thức tốt nhất thế giới. (“Để dự đoán từ tiếp theo với kiến trúc tự chú ý nhiều đầu hiện là máy nén kiến thức thế giới SOTA”).
Nói cách khác, khi dự đoán từ tiếp theo, bạn có thể nén kiến thức của thế giới vào một mô hình lớn. Bạn hỏi người mẫu xem thủ đô của Đan Mạch là Copenhagen hay London, buộc nó phải học địa lý. Kiểu đào tạo trước từ tiếp theo này sẽ buộc người mẫu phải học nhiều kiến thức và khi kiến thức này phát triển đến một mức độ nhất định sẽ cho kết quả rất đáng kinh ngạc.
Tất nhiên, có BERT, cũng là Transformer, điểm khác biệt cốt lõi là BERT không dự đoán từ tiếp theo dựa trên từ trên mà cắt bỏ từ ở giữa và sử dụng từ trên và dưới để dự đoán từ ở giữa.
Sự khác biệt giữa BERT và GPT là gì? Sự khác biệt nhỏ này thực sự phản ánh một cách suy nghĩ khác về mặt triết học. BERT khuyến khích mô hình sử dụng thông tin trong tương lai để dự đoán, trong khi GPT chỉ yêu cầu sử dụng thông tin lịch sử và không thể sử dụng thông tin trong tương lai để dự đoán từ tiếp theo.
Dựa trên tất cả công việc này mà giờ đây chúng ta có thể thấy rằng công nghệ nén này có khả năng thực hiện nhiều hoạt động thông minh đáng ngạc nhiên.
Để đưa ra một ví dụ, nhiệm vụ hỏi đáp được thực hiện bởi mô hình lớn ProductGPT do Xianyuan xây dựng. ProductGPT tìm hiểu và hiểu sản phẩm cũng như người tiêu dùng một cách chuyên nghiệp hơn bằng cách nén các tương tác khác nhau và kiến thức thế giới giữa người tiêu dùng và sản phẩm hoặc dịch vụ. Tôi nghĩ câu trả lời này thực hiện tốt công việc cho thấy mô hình lớn cơ bản có khả năng gì.
Bối cảnh là Luckin và Moutai cùng nhau tung ra một loại cà phê nước sốt, chúng tôi đã hỏi các mô hình ngôn ngữ lớn xem chúng nhìn nhận sự việc này như thế nào, liệu sản phẩm chung giữa Moutai và Coffee có thể thành công hay không và những lợi thế cũng như rủi ro là gì.
Việc đào tạo mô hình này đã hoàn thành từ rất lâu trước khi Ruixing tung ra sản phẩm, vì vậy mô hình này không biết gì về sự đổi mới của Ruixing, Ruixing không được đề cập trong câu hỏi và câu trả lời, nhưng cuộc thảo luận giả định về cà phê và Moutai là sản phẩm chun . Có thể thấy, mọi phân tích của nó đều dựa trên khả năng nội sinh của mô hình lớn chứ không sử dụng tính năng nâng cao tìm kiếm để tóm tắt việc thực hiện các nhiệm vụ trợ lý, điều này phản ánh mô hình lớn đã được mở rộng để hoàn thành các nhiệm vụ dự đoán chiến lược và trong - suy nghĩ sâu sắc.
Từ góc độ cấu trúc biểu đạt và logic, nhiều mô hình lớn giống nhau về nhiều mặt, nhưng điểm khác biệt quan trọng nhất là tính chuyên nghiệp và chiều sâu tư duy.
Câu trả lời của ProductGPT bao gồm các khía cạnh sau:
Trước hết, chỉ ra rằng nhóm người tiêu dùng Moutai và cà phê có rất ít sự trùng lặp, đây là động lực chính để tung ra các mô hình chung nhằm mở rộng nhóm người tiêu dùng tiềm năng. Đồng thời, mô hình lớn đề cập đến những thách thức mà các sản phẩm đồng thương hiệu tiềm năng cần phải vượt qua, chẳng hạn như đổi mới sản phẩm trước tiên , về cách tích hợp cà phê và Moutai để giải quyết các vấn đề về hương vị, kết cấu và phong cách.
Thứ hai, định vị giá. Mô hình hiểu Moutai là sản phẩm cao cấp nhưng cà phê thì không và cần xác định giá cả như thế nào.
Thứ ba, chuỗi cung ứng và các kênh. Cà phê chủ yếu được bán thông qua các cửa hàng ngoại tuyến, trong khi doanh số bán hàng của Moutai không quá phụ thuộc vào các cửa hàng. Làm thế nào để tích hợp cả hai? Đặc biệt, Moutai vẫn còn tồn tại những vấn đề như chống hàng giả, tìm nguồn cung ứng trong lưu thông chuỗi cung ứng.
Nhiều người tiêu dùng bình thường có thể có giả định tương tự trước khi mua một ly latte sốt, họ có để một vài chai Maotai trong Quán cà phê Luckin và thêm một ít Maotai khi mua cà phê không? Nếu đúng như vậy thì không có thách thức nào nêu trên mà ProductGPT đưa ra có thể được giải quyết tốt.
Giải pháp của Luckinhe cho những thách thức này là thêm hương vị nước tương vào máy làm kem. Đây cũng chính là lý do khiến sản phẩm này được gọi là “soy latte” chứ không phải “cà phê đậu nành”.
Trên thực tế, có ba vấn đề được giải quyết bằng cách tiếp cận này. Đầu tiên, việc thêm Moutai vào máy làm kem giúp đơn giản hóa vấn đề đổi mới sản phẩm, còn quy trình chọn hạt cà phê, rang và pha cà phê vẫn được giữ nguyên.
Thứ hai, kem hương vị Maotai giúp giảm chi phí bổ sung Moutai, từ đó giải quyết được vấn đề về giá cả.
Thứ ba, nó giải quyết các vấn đề về chuỗi cung ứng và kênh. Việc niêm phong hương vị nước sốt trong máy làm kem giúp vận chuyển và bảo quản trong các cửa hàng ngoại tuyến dễ dàng hơn thay vì vận chuyển chính Moutai. Điều này tránh được các yếu tố như chống hàng giả, chống trộm và các chi phí phát sinh mà Moutai Logistics cần cân nhắc.
Nói cách khác, chúng ta có thể thấy rằng mô hình lớn ProductGPT đề xuất những lợi thế chính và các vấn đề tiềm ẩn chỉ trong 10 giây dựa trên nhận thức và lý luận nội bộ, đó là sự hợp tác thực sự giữa các tổ chức kinh doanh hàng đầu và các đội ngũ xuất sắc như Moutai và Luckin. và giải quyết. Điều này thể hiện tính chuyên nghiệp và phức tạp giữa con người và hàng hóa. Các mô hình lớn học cách giải quyết những vấn đề như vậy thông qua trí tuệ nhân tạo tổng hợp và dự đoán từ tiếp theo.

2. Tại sao LLM thể hiện khả năng gần với AGI?​

Chúng ta cần suy nghĩ về lý do tại sao các mô hình dựa trên ngôn ngữ lớn lại có khả năng AGI ở mức độ nhất định. Nhiều người cho rằng ChatGPT là hệ thống AI gần nhất với AGI.
Tôi nghĩ có hai lý do: Thứ nhất, nó giải thích tại sao nó có trí thông minh của AGI.
Wittgenstein có một câu nói nổi tiếng: “Ranh giới của ngôn ngữ là ranh giới của tư duy”. Những cách diễn đạt tương tự bao gồm “Cái gì không thể diễn đạt bằng lời thì không đáng bàn và không thể bàn”. Nói cách khác, kiến thức của toàn bộ thế giới phần lớn được nén lại thành ngôn ngữ và có thể được tái tạo lại bằng từ tiếp theo.
Điểm thứ hai là "Tuần tự hóa". Giống như ngôn ngữ thông thường, việc sắp xếp thông tin theo trình tự từ trái sang phải là một quá trình rất trừu tượng. Quá trình trừu tượng hóa và rút gọn này rất quan trọng vì Tuần tự hóa không chỉ học hỏi kiến thức thế giới mà còn cả trạng thái con người và sự tương tác giữa con người với máy tính, những thứ được nén trong đó.
Tôi nghĩ bước phát triển tiếp theo, từ GPT đến Agent, vấn đề cốt lõi là AI, với tư cách là một công cụ do con người tạo ra, liệu nó có thể tự học cách tạo và sử dụng các công cụ không? Đây sẽ là giai đoạn tiếp theo của trí thông minh.
Tôi nghĩ vậy. Từ góc độ các mô hình ngôn ngữ, từ hệ chuyên gia của Edward đến lý thuyết phân lớp ngôn ngữ cho đến mô hình IBM hay mạng nơ-ron của Yoshua Bengio, v.v., bài toán ngôn ngữ hiện nay đã cơ bản được giải quyết. Nhưng AI hiểu và sử dụng các công cụ như thế nào là một vấn đề rất quan trọng, có thể nghĩ đến từ góc độ ngôn ngữ và có nhiều điểm tương đồng.
Trong nhiều công việc, khuôn đế đã được sử dụng để gọi những công cụ này. Nhưng chúng ta cần suy nghĩ về một vấn đề có khung, đó là khi nói về công cụ, thực tế người ta đang nhắc đến những công cụ nào.
Tôi xác định các công cụ thành ba loại:
Loại đầu tiên là các công cụ có thể tương tác với thế giới vật chất, chẳng hạn như robot và cánh tay robot.
Loại thứ hai là các công cụ GUI. Trong thời đại Internet di động, toàn bộ thế giới có thể được trừu tượng hóa thành một loạt các tổ hợp công cụ GUI.
Trong loại thứ ba, tất cả các giao diện và API có thể lập trình đều là công cụ.
Sau khi định vị tất cả các công cụ thành ba loại này, chúng ta hãy nghĩ xem một Agent (tác nhân) có trí thông minh về ngôn ngữ và trí thông minh về công cụ sẽ là gì? Giống như ngôn ngữ tự nhiên, sau khi xử lý bằng 3 loại công cụ này có thể hiểu là một chuỗi Token.
Có hai ý nghĩa ở đây, Token hóa mọi thứ. Nghĩa là, tất cả các công cụ trên thế giới đều có thể được mô tả, so sánh, kết hợp và có thể nghĩ đến mối quan hệ tương hỗ của chúng.
Đồng thời, nó có thể được tuần tự hóa. Tất cả sự kết hợp của các nhiệm vụ đều phụ thuộc vào trình tự, thời gian, địa điểm và công cụ nào được sử dụng. Nếu bạn nhìn ra bên ngoài bản thân mình và nhìn ai đó từ một góc độ khác, tất cả công việc anh ta làm đều được thực hiện bằng cách sử dụng một loạt công cụ, từ việc thức dậy trước đồng hồ báo thức vào buổi sáng, đến đánh răng, đi làm, viết mã, v.v. Mỗi quy trình đánh thức một công cụ nhất định và yêu cầu hiểu rõ đầu ra của công cụ cũng như bước xử lý tiếp theo.
Nếu mọi người hiểu theo cách này, thì tất cả công việc của tác nhân thông minh là học cách gắn nhãn và sử dụng các công cụ này cũng như hiểu đầu ra của các công cụ này. Ưu điểm của việc này là việc sử dụng công cụ này và đầu ra ngôn ngữ giống như mô hình GPT. Hóa ra thuật toán được sử dụng trong đào tạo hoàn toàn có thể tái sử dụng khi sử dụng dựa trên công cụ.
Vẫn còn những vấn đề đòi hỏi phải suy nghĩ sâu sắc trong tương lai. Làm thế nào để chúng ta đạt được trí thông minh của công cụ? Thế hệ hệ điều hành tiếp theo sẽ như thế nào? Chúng ta sẽ giải đáp dần trong tương lai.
Cảm ơn các bạn đã kiên nhẫn đọc bài.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top