OpenAI ra mắt 5 mẫu mới liên tiếp! Giá giảm mạnh, sức mạnh tăng mạnh, vấn đề GPT-4 trở nên lười biếng đã được khắc phục

Đoàn Thúy Hà

Editor
Thành viên BQT
Đêm qua OpenAI đã phát hành một loạt bản cập nhật mô hình lớn, bao gồm 5 mô hình mới và các công cụ quản lý sử dụng API mới. Nói chung, có thể nói là "tăng số lượng mà không tăng giá".
Trước tiên, chúng ta hãy xem các sản phẩm và tính năng mới:
1. Với mẫu GPT-3.5 Turbo mới, giá đầu vào đã giảm 50% và giá đầu ra giảm 25%. Các lỗi khác nhau đã được sửa cùng lúc và độ chính xác phản hồi cao hơn. Người dùng cũ có thể tự động nâng cấp sau hai tuần!
2. Mẫu xem trước GPT-4 Turbo mới có khả năng tạo mã mạnh mẽ hơn, giảm tình trạng "lười biếng" và sửa nhiều lỗi khác nhau. GPT-4 Turbo với các chức năng trực quan cũng sẽ được ra mắt trong vài tháng tới!
3. Mô hình nhúng văn bản nhỏ mới text-embeding-3-small có cải thiện hiệu suất một chút và giá trực tiếp bị "hạ gục", giảm mạnh xuống 1/5 so với thế hệ trước.
4. Mô hình nhúng văn bản lớn mới text-embedding-3-large có cốt lõi là hiệu suất mạnh mẽ. Nó có thể tạo ra các phần nhúng có kích thước lên tới 3072. Trong một số thử nghiệm, hiệu suất đã được cải thiện hơn 70% và giá cả đắt hơn một chút. Đồng thời, OpenAI cũng đã phát triển một công nghệ mới cho phép trực tiếp các nhà phát triển rút ngắn thời gian nhúng với độ chính xác giảm một chút, đạt được sự cân bằng giữa hiệu suất và chi phí, đồng thời cải thiện đáng kể tính linh hoạt.
5. Mô hình kiểm duyệt mới text-moderation-007, được OpenAI gọi là “mô hình kiểm duyệt mạnh mẽ nhất cho đến nay”.
Chúng ta sẽ không đi sâu vào chi tiết về các công cụ quản lý sử dụng API mới tại đây. OpenAI cũng chu đáo nhắc nhở rằng mặc định dữ liệu gửi tới OpenAI API sẽ không dùng để train hay cải tiến mô hình OpenAI.
Không dài dòng nữa, chúng ta hãy xem chi tiết nâng cấp mới chính hiện nay.

1. Giá chỉ bằng một phần năm, hiệu suất mạnh mẽ hơn, tính linh hoạt khi sử dụng mô hình được cải thiện đáng kể​

Trước tiên, chúng ta hãy xem hai mô hình nhúng mới được OpenAI ra mắt lần này, mô hình nhúng văn bản-3-nhỏ nhỏ hơn và hiệu quả hơn và mô hình nhúng-3-nhúng văn bản lớn hơn và mạnh mẽ hơn.
Trước khi xem mô hình, trước tiên bạn phải hiểu "nhúng" là gì. Nói một cách đơn giản, nhúng là một chuỗi các số và những số này biểu thị các khái niệm bằng ngôn ngữ tự nhiên hoặc mã.
OpenAI ra mắt 5 mẫu mới liên tiếp! Giá giảm mạnh, sức mạnh tăng mạnh, vấn đề GPT-4 trở nên lười biếng đã được khắc phục
Sơ đồ nhúng
Tính năng nhúng cho phép các mô hình học máy và các thuật toán khác hiểu được mối quan hệ giữa nội dung và thực hiện các tác vụ như phân cụm hoặc truy xuất, hỗ trợ truy xuất kiến thức trong ChatGPT và API Trợ lý, cũng như nhiều công cụ dành cho nhà phát triển thế hệ tăng cường truy xuất (RAG).
So với mô hình nhúng văn bản-ada-002 thế hệ trước được phát hành vào tháng 12 năm 2022, mô hình nhúng văn bản nhỏ mới text-embedding-3-small có hai nâng cấp chính: hiệu suất mạnh hơn và giá thấp hơn.
Về hiệu suất, trong bài kiểm tra Điểm chuẩn truy xuất đa ngôn ngữ (MIRACL) thường được sử dụng, điểm trung bình của văn bản nhúng-3-nhỏ đã tăng từ 31,4% lên 44,0% và trong bài kiểm tra Điểm chuẩn nhiệm vụ tiếng Anh (MTEB) thường được sử dụng, điểm trung bình tăng từ 31,4% lên 44,0% và tăng từ 61,0% lên 62,3%.
OpenAI ra mắt 5 mẫu mới liên tiếp! Giá giảm mạnh, sức mạnh tăng mạnh, vấn đề GPT-4 trở nên lười biếng đã được khắc phục
Kết quả kiểm tra văn bản-nhúng-3-nhỏ.
Về giá cả, giá của văn bản nhúng-3-nhỏ chỉ bằng 1/5 so với thế hệ trước và giá trên 1.000 mã thông báo đã giảm từ 0,0001 USD xuống 0,00002 USD.
Một mô hình nhúng văn bản lớn mới khác, text-embed-3-large, được cho là có thể tạo các phần nhúng có kích thước lên tới 3072. Cải tiến chính nằm ở hiệu suất.
Về hiệu suất, điểm trung bình của tính năng nhúng văn bản-3-lớn tăng từ 31,4% lên 54,9% trong bài kiểm tra MIRACL, trong khi ở bài kiểm tra MTEB, điểm trung bình tăng từ 61,0% lên 64,6%. Giá là 0,00013 USD/1000 token.
Được biết, việc sử dụng các phần nhúng lớn hơn sẽ tiêu tốn nhiều tài nguyên tính toán, bộ nhớ và lưu trữ hơn và đắt hơn so với việc sử dụng các phần nhúng nhỏ hơn.
Để đạt được mục tiêu này, OpenAI đã đưa ra một công nghệ mới cho phép các nhà phát triển cân nhắc hiệu suất và chi phí của việc sử dụng các phần nhúng. Cụ thể, các nhà phát triển có thể rút ngắn quá trình nhúng bằng cách điều chỉnh các tham số API thứ nguyên trong khi vẫn đảm bảo rằng việc nhúng không làm mất các đặc tính biểu diễn các khái niệm.
Ví dụ: trên điểm chuẩn MTEB, nội dung nhúng văn bản-nhúng-3-lớn có thể được rút ngắn xuống kích thước 256, nhưng kết quả thử nghiệm vẫn tốt hơn so với nội dung nhúng văn bản-nhúng-ada-002 không rút gọn có kích thước 1536.
OpenAI ra mắt 5 mẫu mới liên tiếp! Giá giảm mạnh, sức mạnh tăng mạnh, vấn đề GPT-4 trở nên lười biếng đã được khắc phục
So sánh kết quả test text-embedding-3-large rút gọn còn 256 và text-embedding-ada-002 không rút gọn về kích thước 1536.
Những tính năng như vậy làm cho việc sử dụng rất linh hoạt. Ví dụ: khi nhà phát triển sử dụng kho lưu trữ dữ liệu vectơ chỉ hỗ trợ nhúng tối đa 1024 chiều, anh ta vẫn có thể sử dụng mô hình nhúng-3-lớn văn bản hiệu quả nhất. Anh ta chỉ cần chỉ định giá trị 1024 cho API thứ nguyên tham số và phần nhúng sẽ được Rút ngắn từ 3072 kích thước, tất nhiên sẽ có một chút mất đi độ chính xác.

2. Hai sản phẩm cổ điển đã được nâng cấp đáng kể, mẫu mã tinh tế hơn, khả năng mã hóa được nâng cao và các chức năng hình ảnh sẽ được hỗ trợ trong tương lai.​

a. Model GPT-3.5 Turbo mới - giá đầu vào và đầu ra đã giảm đáng kể, giúp người dùng cũ dễ dàng nâng cấp
Ngoài hai mẫu nhúng, lần này OpenAI cũng thông báo sẽ ra mắt mẫu GPT-3.5 Turbo mới - gpt-3.5-turbo-0125 vào tuần tới và giảm thêm giá sử dụng. Đây là bước đầu tiên OpenAI thực hiện được thực hiện trong năm qua. Đây là lần giảm giá thứ ba.
Nó rẻ đến mức nào? Giá đầu vào của gpt-3.5-turbo-0125 giảm 50% xuống còn 0,0005 USD/1000 mã thông báo và giá đầu ra cũng giảm 25% xuống còn 0,0015 USD/1000 mã thông báo.
Tất nhiên, gpt-3.5-turbo-0125 sẽ có nhiều nâng cấp khác nhau, chẳng hạn như độ chính xác cao hơn khi phản hồi ở định dạng được yêu cầu và OpenAI cũng đã sửa một số lỗi.
Một tin vui khác là những khách hàng hiện tại đang sử dụng bí danh mẫu gpt-3.5-turbo đã được ghim sẽ tự động nâng cấp trong vòng hai tuần kể từ khi mẫu mới được phát hành.
b. Mẫu xem trước GPT-4 Turbo mới - mã mạnh hơn, ít "lười" hơn
Ngoài GPT-3.5 Turbo, lần này OpenAI cũng phát hành mẫu xem trước GPT-4 Turbo mới - gpt-4-0125-preview.
Mô hình này có thể hoàn thành các nhiệm vụ như tạo mã hoàn thiện hơn so với mô hình xem trước trước đó và có thể giảm khả năng mô hình trở nên "lười biếng" và không hoàn thành nhiệm vụ. Cuối năm ngoái, GPT-4 bị phát hiện ngày càng “lười biếng”, phản hồi chậm, trả lời chiếu lệ, không tuân theo hướng dẫn, có xu hướng bỏ sót mã khi viết mã, thậm chí từ chối trả lời, làm gián đoạn cuộc trò chuyện, vân vân. Tất nhiên, mô hình mới cũng sửa một số lỗi.
Đối với mẫu xem trước GPT-4 Turbo mới, OpenAI cũng đã giới thiệu cơ chế nâng cấp tự động liên quan, nếu người dùng đăng ký các dịch vụ liên quan, họ sẽ luôn có thể sử dụng phiên bản mới nhất của mẫu xem trước GPT-4 Turbo.
Điều đáng nói là OpenAI cũng đề cập rằng họ có kế hoạch ra mắt GPT-4 Turbo với khả năng quan sát trong vài tháng tới.
c. “Mô hình đánh giá mạnh mẽ nhất”
Sản phẩm mới cuối cùng là mô hình kiểm duyệt mới - text-moderation-007, được OpenAI gọi là "mô hình kiểm duyệt mạnh mẽ nhất cho đến nay". API kiểm duyệt miễn phí cho phép các nhà phát triển xác định văn bản có khả năng gây hại.
e. Hai cải tiến nền tảng để cải thiện trải nghiệm quản lý và sử dụng API của nhà phát triển
Ngoài ra, OpenAI đang triển khai hai cải tiến nền tảng nhằm mang lại sự minh bạch cao hơn trong việc sử dụng khóa API đồng thời cung cấp cho các nhà phát triển nhiều quyền kiểm soát hơn đối với khóa API.
Cải tiến đầu tiên là nhà phát triển có thể gán quyền cho khóa API từ trang Khóa API. Cải tiến thứ hai là các số liệu cấp khóa API có thể được hiển thị sau khi bật tính năng theo dõi bằng bảng thông tin và sử dụng tính năng xuất.
OpenAI ra mắt 5 mẫu mới liên tiếp! Giá giảm mạnh, sức mạnh tăng mạnh, vấn đề GPT-4 trở nên lười biếng đã được khắc phục
Trang tổng quan có thể hiển thị số liệu cấp độ khóa API
Bằng cách này, bạn có thể chỉ cần xem mức sử dụng ở mỗi cấp độ bằng cách chỉ định khóa API riêng cho từng tính năng, nhóm, sản phẩm hoặc dự án.
Kết luận: Với hiệu suất mạnh mẽ hơn và mức giá thấp hơn, các mô hình lớn của OpenAI tiếp tục củng cố lợi thế.
Một số sản phẩm mô hình lớn mới được OpenAI phát hành lần này đã đạt được những cải tiến hiệu suất nhất định dựa trên các sản phẩm thế hệ trước, đồng thời được cải tiến về tính dễ sử dụng và linh hoạt cho các nhà phát triển, đồng thời có chiết khấu đáng kể. về mặt giá cả.
Đối với OpenAI, việc cải tiến hệ sinh thái mô hình lớn không thể tách rời khỏi các nhà phát triển, chuỗi hoạt động “tăng số lượng mà không tăng giá” ngày nay chắc chắn sẽ làm tăng tính cạnh tranh. Chúng ta sẽ chờ xem các đối thủ OpenAI sẽ làm gì và phản ứng ra sao cũng như những biến đổi mới nào mà sự xuất hiện của các mô hình trực quan lớn sẽ mang lại cho ngành trong tương lai.
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top