Điểm tiến hóa mới của AI mô hình lớn: hãy để GPT-4 làm công cụ cho GPT-3.5, nghiên cứu của nhóm Google DeepMind

Trung Đào

Writer
Ngày 5 tháng 6, một nhóm nghiên cứu từ Google DeepMind, Đại học Princeton và Đại học Stanford đã đề xuất một khung có tên LATM (LLMs là nhà sản xuất công cụ), bao gồm hai LLM (Mô hình ngôn ngữ lớn), trong số đó có GPT -4 Cao như vậy- hiệu suất LLM có thể trở thành một nhà sản xuất công cụ độc lập.
Con người đã phát triển từ việc tạo ra các công cụ để đáp ứng những thách thức mới. Con người hiện đang làm cho LLM trở nên mạnh mẽ hơn bằng cách tạo ra các công cụ, điều này không chỉ cải thiện khả năng giải quyết vấn đề linh hoạt của LLM mà còn cung cấp cho người dùng các giải pháp hiệu quả và hợp lý nhất.

Điểm tiến hóa mới của AI mô hình lớn: hãy để GPT-4 làm công cụ cho GPT-3.5, nghiên cứu của nhóm Google DeepMind
1. Hãy để mô hình mạnh mẽ tạo ra các công cụ của riêng mình và để mô hình nhẹ sử dụng các công cụ để giải quyết vấn đề
LATM có thể phân bổ việc sử dụng LLM theo các tình huống sử dụng cụ thể, bao gồm hai liên kết sản xuất công cụ và sử dụng công cụ:
1. Sử dụng mô hình mạnh mẽ và đắt tiền làm công cụ tạo công cụ, chẳng hạn như GPT-4, để tạo công cụ có thể tái sử dụng (được trình bày dưới dạng hàm Python) từ một phiên bản tác vụ;
2. Sử dụng kiểu máy nhẹ, rẻ hơn làm người tiêu dùng công cụ, chẳng hạn như GPT-3.5 Turbo, để thực hiện các tác vụ sử dụng tương đối đơn giản, nghĩa là sử dụng các công cụ đã được chứng minh để giải quyết các trường hợp tương tự trong các yêu cầu.
Chế độ này cho phép các mô hình nhẹ có hiệu suất tương đương với các mô hình mạnh mẽ trong khi vẫn tiết kiệm chi phí hơn. Nó có thể được sử dụng cho nhiều tác vụ lặp đi lặp lại, chẳng hạn như phân tích cú pháp và phân tích tài liệu Web cũng như tìm hướng dẫn trò chơi.
Chế tạo công cụ được chia thành các bước sau: đề xuất công cụ, xác minh và đóng gói. Vì mỗi loại nhiệm vụ chỉ cần được thực hiện một lần nên công cụ kết quả có thể được sử dụng lại cho tất cả các phiên bản của nhiệm vụ đó. Do đó, hiệu quả và hiệu quả chi phí của LATM tăng lên đáng kể so với việc chỉ sử dụng một mô hình hiệu quả.
Ngoài ra, các công cụ chức năng Python là một dạng chuỗi suy nghĩ tổng quát hơn có thể nâng cao tiện ích tổng thể và tính linh hoạt của LLM.
Họ cũng giới thiệu một mô-đun thứ ba, một LLM nhẹ để đóng vai trò là người điều phối, có thể quyết định xem có thể giải quyết một vấn đề sắp xảy ra bằng các công cụ hiện có hay không hoặc có cần tạo các công cụ mới hay không.
2. LATM có thể giải quyết các vấn đề phức tạp và hiệu quả cuối cùng có thể so sánh với một mô hình mạnh mẽ
Sử dụng GPT-4 làm công cụ tạo công cụ đại diện và GPT-3.5 Turbo làm người dùng công cụ đại diện, nhóm đã đánh giá tính khả thi của LATM trên sáu bộ dữ liệu miền khác nhau, bao gồm suy diễn logic, theo dõi các đối tượng xáo trộn , ngôn ngữ Dyck, sắp xếp từ, định lý phần dư tiếng Trung và lên lịch hội nghị, và cuối cùng đã xác nhận:
1. Khi GPT-4 được sử dụng làm công cụ tạo công cụ, mô hình thường thiết kế các công cụ giải quyết vấn đề phù hợp;
2. Một mô hình nhẹ như GPT-3.5 Turbo có thể đạt được hiệu suất tương tự như GPT-4 với chi phí trung bình thấp hơn, cho thấy hiệu quả của LATM trong việc cải thiện hiệu suất của các mô hình nhẹ;
3. Bộ lập lịch có thể xác định hiệu quả các công cụ hiện có và yêu cầu tạo các công cụ mới khi cần.
Nhưng trong quá trình đánh giá của nhóm, họ cũng phát hiện ra rằng:
1. Đối với những nhiệm vụ rất khó, việc tạo ra một công cụ giải pháp không chỉ cần một mô hình mạnh mẽ với hiệu suất cao mà còn cần một bộ dữ liệu có độ chính xác cao;
2. Đối với các nhiệm vụ đơn giản hơn, nhà sản xuất công cụ có thể là một LLM nhẹ.
Kết luận: Tích hợp khả năng LLM để thúc đẩy sự phát triển của hệ thống AI
LATM tích hợp một cách sáng tạo hai loại LLM và gán chúng vào hai giai đoạn chính, cho phép các LLM tạo và sử dụng các công cụ của riêng họ để hoàn thành các nhiệm vụ khác nhau, không chỉ tận dụng khả năng của các LLM tiên tiến mà còn giảm đáng kể chi phí tính toán và thúc đẩy AI Sự phát triển của hệ thống đồng thời mở ra vô số cơ hội.
Việc thiếu khám phá các bộ dữ liệu trong nghiên cứu có thể kích thích cộng đồng nghiên cứu tạo ra các bộ dữ liệu có độ chính xác cao, từ đó sẽ giúp đào tạo thế hệ hệ thống trí tuệ nhân tạo tiếp theo.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top