Hóa ra, không khó để làm những gì OpenAI làm với chi phí thấp hơn

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0
Ngay cả khi OpenAI vẫn tiếp tục khẳng định rằng con đường duy nhất để đạt được AGI là phải chi tiêu rất nhiều tiền và năng lượng, các nhà nghiên cứu độc lập đang tận dụng các công nghệ nguồn mở để đạt được hiệu suất của các mô hình mạnh nhất của mình — và chỉ tốn một phần nhỏ chi phí.

Phông chữ mới của OpenAI OpenAI Sans

Thứ sáu tuần trước, một nhóm thống nhất từ Đại học Stanford và Đại học Washington đã công bố rằng họ đã đào tạo một mô hình ngôn ngữ lớn tập trung vào toán học và mã hóa có hiệu suất tốt như các mô hình lý luận o1 của OpenAI và R1 của DeepSeek . Chỉ tốn 50 đô la tín dụng điện toán đám mây để xây dựng. Nhóm nghiên cứu được cho là đã sử dụng một mô hình cơ sở có sẵn, sau đó tinh chế mô hình Thử nghiệm tư duy Flash Gemini 2.0 của Google vào đó. Quá trình tinh chế AI bao gồm việc lấy thông tin có liên quan để hoàn thành một nhiệm vụ cụ thể từ một mô hình AI lớn hơn và chuyển nó sang một mô hình nhỏ hơn.

Hơn nữa, vào thứ Ba, các nhà nghiên cứu từ Hugging Face đã phát hành một đối thủ cạnh tranh với Deep Research của OpenAI và các công cụ Deep Research của Google Gemini (cũng vậy) , được gọi là Open Deep Research , mà họ đã phát triển chỉ trong 24 giờ. "Mặc dù các LLM mạnh mẽ hiện có sẵn miễn phí trong mã nguồn mở, OpenAI đã không tiết lộ nhiều về khuôn khổ tác nhân cơ bản của Deep Research", Hugging Face đã viết trong bài đăng thông báo của mình . "Vì vậy, chúng tôi quyết định bắt tay vào nhiệm vụ kéo dài 24 giờ để tái tạo kết quả của họ và mã nguồn mở khuôn khổ cần thiết trong quá trình này!" Theo báo cáo, chi phí ước tính là 20 đô la tín dụng điện toán đám mây và sẽ cần chưa đến 30 phút để đào tạo.

Mô hình của Hugging Face sau đó đạt độ chính xác 55% trên chuẩn General AI Assistants (GAIA), được sử dụng để kiểm tra năng lực của các hệ thống AI đại lý . Để so sánh, Nghiên cứu sâu của OpenAI đạt độ chính xác từ 67 – 73%, tùy thuộc vào phương pháp phản hồi. Phải công nhận là mô hình 24 giờ không hoạt động tốt bằng mô hình của OpenAI, nhưng nó cũng không tốn hàng tỷ đô la và năng lực tạo ra năng lượng của một quốc gia châu Âu cỡ trung để đào tạo.

Những nỗ lực này theo sau tin tức từ tháng 1 rằng một nhóm từ Phòng thí nghiệm điện toán Sky của Đại học California, Berkeley đã đào tạo được mô hình suy luận Sky T1 của họ với khoảng 450 đô la tín dụng điện toán đám mây. Mô hình Sky-T1-32B-Preview của nhóm đã chứng minh được sự ngang bằng với bản phát hành mô hình suy luận o1-preview ban đầu. Khi ngày càng có nhiều đối thủ cạnh tranh nguồn mở này đối với sự thống trị của OpenAI trong ngành, sự tồn tại của chúng đặt ra câu hỏi liệu kế hoạch chi nửa nghìn tỷ đô la của công ty để xây dựng các trung tâm dữ liệu AI và cơ sở sản xuất năng lượng có thực sự là câu trả lời hay không.

Nguồn: Digitaltrends
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top