OpenAI đã thành công trong việc tạo cuộc khủng hoảng cho chính mình

Christine May
Christine May
Phản hồi: 0

Christine May

Editor
Thành viên BQT
OpenAI tính toán sai.

OpenAI đã chia một cuộc họp báo lẽ ra có thể hoàn thành trong 2 giờ thành 12 ngày, với các cuộc thảo luận kéo dài khoảng 15 phút mỗi ngày. Bữa tiệc tiếp thị được lên kế hoạch cẩn thận này tạo ra cảm giác cấp bách “sợ bỏ lỡ”.

Tuy nhiên, điều đó tưởng chừng có thể kích thích sự thèm ăn của khán giả nhưng lại trở thành mục tiêu của đối thủ. Trong 12 ngày qua, Google chưa bao giờ công bố tiến độ các sản phẩm AI của mình một cách tích cực và chuyên sâu đến vậy. Lần nào cũng là đợt tấn công dữ dội vào OpenAI.

Trong giai đoạn này, Google lần đầu tiên phát hành mô hình ngôn ngữ lớn Gemini 2.0 của riêng mình. Trong các đánh giá của phương tiện truyền thông nước ngoài, khả năng đa phương thức và tốc độ xử lý của nó có những lợi thế rõ ràng so với GPT-o1 của OpenAI.

Sau đó, Google phát hành Veo 2, một mô hình tạo video benchmark Sora, được đánh giá là tốt hơn Sora về nhiều mặt trong quá trình thử nghiệm thực tế. Ví dụ: Voe 2 mạnh hơn trong việc tạo ra độ chân thực và chi tiết của video, trong khi Sora tương đối yếu ở các khía cạnh này và thiên về các chuyển động và vật thể không tự nhiên hơn; chẳng hạn, Voe 2 cho phép người dùng chỉ định thông qua các lời nhắc đơn giản. Nhiều loại ống kính và phương pháp chụp hơn; làm cho quá trình tạo video linh hoạt hơn.

Ngay đến ngày thứ 12, OpenAI đã quét sạch sự buồn tẻ của 11 ngày trước đó và cho ra mắt mẫu GPT-o3 thế hệ mới, gần bằng AGI (Trí tuệ nhân tạo tổng hợp) về mọi mặt hiệu suất nhưng người dùng lại không mua. Người ta cho rằng GPT-o3 vẫn là "tương lai", giống như Sora ngày xưa và chưa thể mở ra cho người dùng trong thời gian ngắn.

Trước đó, theo đánh giá do tổ chức phi lợi nhuận METR công bố vào tháng 11, mô hình lớn Claude Sonnet 3.5 của Anthropic đã vượt qua o1-preview của OpenAI ở 5 trên 7 bài kiểm tra.

Không thể nói rằng OpenAI không còn mạnh nữa. Hãng đã cho ra mắt hai mẫu hàng đầu GPT-o1 và GPT-o3 trong ba tháng nhưng đang bị các đối thủ tiếp cận từng bước. Openai, đội từng dẫn đầu, đã từ “thần thánh” thành “xuất sắc” trong 2 năm, dần đứng cùng vạch xuất phát với ngày càng nhiều đối thủ, thậm chí còn bắt đầu bị vượt mặt.

Cuộc họp báo kéo dài 12 ngày đã đi từ chỗ rất được mong đợi đến chỗ được đón nhận kém.
1734917561647.png

Bên ngoài cuộc họp báo, tình hình của OpenAI không hề lạc quan.

Để tăng doanh thu càng sớm càng tốt, Giám đốc thương mại OpenAI Lionetti cho biết công ty đã và đang cố gắng hợp tác với khách hàng trong các ngành như chăm sóc sức khỏe, sản xuất, công ty pháp lý và giáo dục. Ví dụ: OpenAI đã phát hành ChatGPT EDU cho các cơ sở vào tháng 5 năm nay và cũng đã tuyển dụng một cựu giám đốc điều hành của gã khổng lồ giáo dục trực tuyến Coursera của Mỹ để làm người đứng đầu doanh nghiệp giáo dục của mình.

Thật không may, nó đã phản tác dụng. Theo dữ liệu từ công ty đầu tư mạo hiểm Menlo Ventures, thị phần của OpenAI trong lĩnh vực AI doanh nghiệp đã giảm từ 50% xuống 34% trong năm nay, trong khi thị phần của Anthropic do Amazon hậu thuẫn tăng gấp đôi từ 12% lên 24%.

OpenAI từ được kỳ vọng cao đến thất vọng rồi nhanh chóng mất thị phần.

Không còn bí mật nào nữa

Trong cuộc họp báo kéo dài 12 ngày của OpenAI, theo thông tin, có thêm hai nhân vật cốt lõi đã từ chức khỏi OpenAI.

Một trong số đó là thành viên kỳ cựu của OpenAI, Alec Radford, người đã gia nhập OpenAI vào năm 2016 và đã tham gia phát triển GPT-1 thành GPT- 4o. Emad Mostaque, người sáng lập mô hình đồ thị Vincent nguồn mở Stable Diffusion, từng nói về Alec Radford: Nếu anh ấy rời đi, openai sẽ sụp đổ.

Với sự ra đi của anh, tất cả các tác giả bài báo cốt lõi của thế hệ mô hình GPT-1 và GPT-2 đã rời OpenAI.

Có thể nói, năm 2024 đã trở thành một năm bước ngoặt quan trọng trong lịch sử phát triển của công ty này.

Trước đó, ChatGPT được phát hành vào ngày 1 tháng 12 năm 2022. Số lượng người dùng vượt quá 100 triệu trong 2 tháng Ngành công nghiệp Internet toàn cầu đang sôi sục và nhanh chóng đạt được sự đồng thuận: Đây là lời kêu gọi rõ ràng về một kỷ nguyên mới. Kết quả là, những gã khổng lồ công nghệ và các công ty khởi nghiệp đã cùng nhau theo đuổi openai. Tính đến quý 1 năm 2024, số lượng mô hình trí tuệ nhân tạo lớn trên toàn cầu đã lên tới 1.328. Trong đó, Mỹ chiếm tỷ lệ cao nhất, khoảng 44%, còn Trung Quốc chiếm 36%.

Đến ngày 14 tháng 3 năm 2023, OpenAI đã phát hành GPT-4, một lần nữa khiến cả thế giới kinh ngạc. Mỗi lần cập nhật của nó đều làm mới ranh giới hiểu biết của mọi người về AI. Nó là ngọn hải đăng cho ngành công nghiệp AI.

Đến năm 2024, mọi thứ dường như đã thay đổi. Những người từng tạo ra hào quang trên đã rời bỏ OpenAI trong năm nay, bao gồm các đồng sáng lập Ilya Sutskever và John Schulman, giám đốc công nghệ Mira Murati, người sáng tạo GPT Alec Radford, cũng như các lãnh đạo sản phẩm và bảo mật cũng như những người vừa gia nhập 7 OpenAI. Giám đốc tìm kiếm Shivakumar Venkataraman đã rời đi chỉ vài tháng trước.

Rất ít người trong số họ bắt đầu kinh doanh riêng và hầu hết họ đã gia nhập các đối thủ cạnh tranh của OpenAI, như Google, Amazon, Anthropic, xAI, META, Microsoft, v.v.

Con đường tối ưu hóa các mô hình lớn của họ hầu như luôn dựa trên nhiều GPU, dữ liệu và nhân tài hàng đầu.

Naveen Rao, phó chủ tịch AI tại Databricks, người có liên quan chặt chẽ đến việc tuyển dụng nhân tài hàng đầu ở Thung lũng Silicon, cho biết trong một cuộc phỏng vấn gần đây rằng vì những nhân tài hàng đầu thường xuyên di chuyển giữa các tổ chức khác nhau nên hầu như không còn bí mật thương mại nào nữa.

Sau khi bán công ty trước đây của mình, MosaicML, cho Databricks với giá 1,3 tỷ USD vào năm 2023, anh ấy trở thành người chịu trách nhiệm về các sản phẩm AI của Databricks. Công ty phân tích dữ liệu Databricks vừa hoàn thành khoản tài trợ lớn nhất trong lịch sử Thung lũng Silicon trong tháng này , 10 tỷ USD.

Theo anh, số lượng nhà nghiên cứu trên thế giới thực sự có thể xây dựng các mô hình quy mô lớn tiên tiến mới chỉ chưa đến 1.000, đó là lý do tại sao sự cạnh tranh giành những tài năng hàng đầu này lại rất khốc liệt. Hiếm có ngành nào mà những nhân tài hàng đầu có thể thay đổi công việc thường xuyên như vậy. Tình trạng “cung vượt cầu” mang lại cho họ sự tự do và quyền lực lớn hơn.

Naveen Rao cho biết trong mạch mô hình lớn, tầm ảnh hưởng của các nhà nghiên cứu trong các tổ chức là chưa từng có và ý tưởng của nhà nghiên cứu có thể thay đổi hoàn toàn sản phẩm và có tác động rất lớn đến tương lai của công ty.

Đây là giai đoạn tốt nhất để ngành công nghệ thể hiện chủ nghĩa anh hùng cá nhân.

Cuộc di cư hàng loạt của nhân sự cốt lõi của OpenAI chắc chắn đã mang lại những bí mật và ảnh hưởng về sự trỗi dậy của nó cho các đối thủ, đồng thời dỡ bỏ các rào cản kinh doanh của OpenAI.

Vũ khí tiếp theo của OpenAI, GPT-5, vẫn bi quan

Vào ngày cuối cùng của cuộc họp báo kéo dài 12 ngày của OpenAI, được cho là một “ngày trọng đại”, tờ Wall Street Journal đã tiết lộ một tin chấn động: tiến độ phát triển của GPT-5 đã bị chặn.

Theo báo cáo, kể từ khi phát hành GPT-4 vào tháng 3 năm 2023, OpenAI đã thúc đẩy toàn diện việc nghiên cứu và phát triển GPT-5. Tên mã nội bộ của dự án GPT-5 là Orion và đã được chuẩn bị trong 18 tháng.

Là nhà đầu tư lớn nhất vào OpenAI, Microsoft ban đầu hy vọng sẽ thấy mô hình mới ra mắt vào giữa năm nay, nhưng mục tiêu này vẫn chưa đạt được.

OpenAI đã tiến hành ít nhất hai đợt đào tạo quy mô lớn. Mỗi đợt đào tạo cần vài tháng để xử lý lượng dữ liệu khổng lồ và mỗi đợt đào tạo đều gặp phải những khó khăn kỹ thuật mới. Theo những người quen thuộc với vấn đề này, chi phí tính toán cho riêng đợt đào tạo kéo dài sáu tháng có thể lên tới khoảng 500 triệu USD. Ngày nay, mọi người đang tự hỏi liệu có đáng để đầu tư số tiền khổng lồ như vậy hay không.

Ngoài ra, dữ liệu cần thiết cho đào tạo mô hình lớn thường đến từ nhiều nguồn khác nhau như sách, ấn phẩm học thuật, bài báo, bài đăng trên mạng xã hội, v.v. Kinh nghiệm cho thấy rằng bạn càng cung cấp nhiều dữ liệu cho một mô hình lớn thì trí thông minh của nó càng trở nên tốt hơn. Tuy nhiên, các nhà nghiên cứu tham gia dự án Orion cho rằng dữ liệu Internet hiện tại không còn đủ nữa và họ cần dữ liệu đa dạng và chất lượng cao hơn.

Quan điểm này nhất quán với quan điểm của Ilya Sutskever, người đồng sáng lập đã ra đi của OpenAI, người từng chỉ ra rằng dữ liệu trên Internet sắp cạn kiệt.

Theo những người quen thuộc với vấn đề này, OpenAI thậm chí đã bắt đầu khám phá cái gọi là "dữ liệu tổng hợp" - dữ liệu được tạo ra bởi trí tuệ nhân tạo để huấn luyện Orion. Tuy nhiên, nghiên cứu cho thấy dữ liệu do AI tạo ra thường có thể khiến hệ thống gặp trục trặc hoặc đưa ra những câu trả lời vô nghĩa.

Để đào tạo các mô hình lớn, ngành đang rất cần các giải pháp mới, tuy nhiên trong ngành vẫn chưa có sự thống nhất về phương pháp nào là lựa chọn tốt nhất. Như Ilya đã nói, “Tôi hầu như luôn đúng trong các dự đoán về AI của mình trong thập kỷ qua, nhưng bây giờ, tôi hoàn toàn không biết điều gì sẽ xảy ra tiếp theo”.

Tuy nhiên, một số người trong ngành tin rằng mặc dù việc phát triển năng lực mô hình lớn có thể gặp phải những trở ngại nhưng chúng ta không cần quá lo lắng về điều này. Các mô hình lớn ngày nay đã vượt xa các công nghệ AI trong quá khứ và chúng vẫn có thể thay đổi đáng kể hoạt động kinh doanh và thậm chí định hình lại bối cảnh cạnh tranh của toàn ngành.

Một số nhà đầu tư AI tin rằng mức độ lan rộng của AI có thể đang giảm đi, nhưng mỗi tháng lại có những bước phát triển mới trong lĩnh vực AI và các mô hình lớn đang dần được sử dụng trong các tình huống và ngành khác nhau, điều này có thể không dễ nhận thấy trong mắt công chúng.

Có thể nói hiện nay đang là thời kỳ hoàng kim của ngành trí tuệ nhân tạo nhưng OpenAI quả thực đang phải đối mặt với nhiều thách thức, khủng hoảng hơn trước.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top