OpenAI giới thiệu GPT-4 Turbo: bộ nhớ lớn hơn, chi phí thấp hơn, kiến thức mới nhất

TienCM

Pearl
Tại sự kiện OpenAI DevDay vừa diễn ra, Giám đốc điều hành OpenAI Sam Altman đã công bố một bản cập nhật lớn cho mô hình ngôn ngữ GPT-4 có tên là GPT-4 Turbo, có thể xử lý lượng văn bản lớn hơn nhiều so với GPT-4 và có tính năng giới hạn kiến thức vào tháng 4 năm 2023.
Sam Altman cũng giới thiệu các API cho DALL-E 3, GPT-4 Vision và tính năng chuyển văn bản thành giọng nói đồng thời ra mắt "Assistants API" giúp các nhà phát triển xây dựng các ứng dụng AI hỗ trợ dễ dàng hơn.
OpenAI giới thiệu GPT-4 Turbo: bộ nhớ lớn hơn, chi phí thấp hơn, kiến thức mới nhất
OpenAI đã tổ chức sự kiện dành cho nhà phát triển đầu tiên vào ngày 6/11 tại San Francisco có tên DevDay. Trong bài phát biểu khai mạc do Sam Altman trình bày trước một lượng nhỏ khán giả, vị CEO này đã giới thiệu những tác động rộng lớn hơn của công nghệ AI trên thế giới, bao gồm cả việc hỗ trợ mọi người tiếp cận công nghệ. Sam Altman đã chia sẻ một số số liệu thống kê, cho biết hơn 2 triệu nhà phát triển đang xây dựng ứng dụng bằng API của họ, hơn 92% công ty trong danh sách Fortune 500 đang xây dựng trên nền tảng của OpenAI và ChatGPT có hơn 100 triệu người dùng hoạt động hàng tuần.
Tại một thời điểm, Giám đốc điều hành Microsoft Satya Nadella đã bất ngờ xuất hiện trên sân khấu, nói chuyện với Altman về mối quan hệ hợp tác sâu sắc giữa Microsoft và OpenAI, đồng thời chia sẻ một số suy nghĩ chung về tương lai của công nghệ mà ông cho rằng sẽ trao quyền cho mọi người.

GPT-4 được nâng cấp

Trong bài phát biểu quan trọng, Sam Altman đã tung ra mẫu GPT-4 Turbo với ba đặc tính đáng chú ý nhất: độ dài ngữ cảnh, kiến thức cập nhật hơn và giá cả.
Các mô hình ngôn ngữ lớn (LLM) như GPT-4 dựa vào độ dài ngữ cảnh (còn gọi là “cửa sổ ngữ cảnh") để xác định số lượng văn bản mà chúng có thể xử lý cùng một lúc. Độ dài ngữ cảnh thường được đo bằng token, là các khối từ. Theo OpenAI, một token tương ứng với khoảng bốn ký tự của văn bản tiếng Anh hoặc khoảng 3/4 từ. Sam Altman cho biết GPT-4 Turbo có thể xem xét khoảng 96.000 từ trong một lần đọc, dài hơn nhiều cuốn tiểu thuyết. Ngoài ra, độ dài ngữ cảnh 128K có thể dẫn đến các cuộc trò chuyện dài hơn nhiều mà không khiến trợ lý AI mất trí nhớ ngắn hạn về chủ đề hiện tại.
Trước đây, GPT-4 có đồ dài ngữ cảnh 8.000 token, với mô hình 32K có sẵn thông qua API cho một số nhà phát triển. Độ dài ngữ cảnh mở rộng không hoàn toàn mới đối với GPT-4 Turbo. Trước đó, Anthropic đã công bố phiên bản 100K token của mô hình ngôn ngữ Claude vào tháng 5 và Claude 2 tiếp tục truyền thống đó.
Trong gần một năm qua, ChatGPT và GPT-4 chỉ chính thức kết hợp kiến thức về các sự kiện cho đến tháng 9/2021 (mặc dù theo các báo cáo, OpenAI đã âm thầm thử nghiệm các mô hình với nhiều kiến thức gần đây hơn vào nhiều thời điểm khác nhau). GPT-4 Turbo có kiến thức về các sự kiện tính đến tháng 4/2023, khiến nó trở thành mô hình ngôn ngữ cập nhật nhất của OpenAI.
Và liên quan đến chi phí, việc chạy GPT-4 Turbo dưới dạng API có chi phí thấp hơn một phần ba so với GPT-4 cho các token đầu vào (ở mức 0,01 USD trên 1.000 token) và thấp hơn một nửa so với GPT-4 cho các token đầu ra (ở mức 0,03 USD trên 1.000 token). Bên cạnh đó, OpenAI cũng giảm giá cho các mô hình API GPT-3.5 Turbo của mình. OpenAI đã thông báo rằng họ sẽ tăng gấp đôi giới hạn số token mỗi phút cho tất cả khách hàng GPT-4 trả phí, đồng thời cho phép yêu cầu tăng giới hạn tốc độ.

Nhiều khả năng hơn đến với API

API hoặc giao diện lập trình ứng dụng là cách mà các chương trình có thể giao tiếp với nhau. Chúng cho phép các nhà phát triển phần mềm tích hợp các mô hình của OpenAI vào ứng dụng của họ. Bắt đầu từ ngày 7/11/2023, OpenAI cung cấp quyền truy cập vào API cho GPT-4 Turbo có thể phân tích hình ảnh và sử dụng chúng trong các cuộc trò chuyện; DALL-E 3, có thể tạo ra hình ảnh bằng cách sử dụng tổng hợp hình ảnh AI; và mô hình chuyển văn bản thành giọng nói của OpenAI, đã gây chú ý trong ứng dụng ChatGPT nhờ giọng nói chân thực.
OpenAI cũng ra mắt "Assistants API" có thể giúp các nhà phát triển xây dựng "trải nghiệm giống như tác nhân" trong ứng dụng của riêng họ. Nó tương tự như phiên bản API của sản phẩm "GPT" mới của OpenAI, cho phép thực hiện các hướng dẫn tùy chỉnh và sử dụng công cụ bên ngoài.
OpenAI cho biết, chìa khóa của "Assistants API" là "các luồng dài vô tận và liên tục", cho phép các nhà phát triển bỏ qua việc tự theo dõi lịch sử hội thoại hiện có và quản lý các giới hạn của cửa sổ ngữ cảnh theo cách thủ công. Thay vào đó, nhà phát triển có thể thêm từng tin nhắn mới trong cuộc trò chuyện vào chuỗi hiện có. Ngược lại với AI "không trạng thái", có nghĩa là mô hình AI tiếp cận mỗi phiên trò chuyện dưới dạng một bảng trống không có kiến thức về các tương tác trước đó, mọi người thường gọi cách tiếp cận theo luồng này là AI "trạng thái".

Các thứ khác

Cũng trong ngày 6/11, OpenAI đã giới thiệu cái mà họ gọi là "Copyright Shield", đây là cam kết của công ty nhằm bảo vệ khách hàng doanh nghiệp và API của mình khỏi các khiếu nại pháp lý liên quan đến vi phạm bản quyền do sử dụng trình tạo văn bản hoặc hình ảnh của họ. Bên cạnh đó, OpenAI đã công bố ra mắt phiên bản 3 của mô hình Whisper mã nguồn mở, xử lý nhận dạng giọng nói.
Nguồn: DigitalTrends
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top