Cuộc đua AI có hướng rẽ mới: Các mô hình siêu nhanh, nhẹ, chạy trực tiếp trên smartphone hay máy tính

Trà Xanh

Moderator
Cuộc đua phát triển mô hình ngôn ngữ lớn đa chế độ với hàng trăm, hàng nghìn tỷ tham số vẫn đang diễn ra sôi nổi, với những cái tên đình đám như Google, Microsoft, OpenAI, Meta và thậm chí cả Apple. GPT-5 của OpenAI, dự kiến ra mắt cuối năm nay hoặc đầu năm sau, là một ví dụ điển hình.

Tuy nhiên, bên cạnh cuộc đua "khủng long", các ông lớn công nghệ cũng đang nhắm đến một thị trường mới đầy tiềm năng: mô hình AI "cỡ nhỏ", với số lượng tham số chỉ vài tỷ. Những mô hình này đủ nhỏ gọn để chạy mượt mà trên NPU, chip xử lý của máy tính cá nhân và điện thoại thông minh.

1716195629528.png


Apple đã giới thiệu OpenELM với 270 triệu đến 3 tỷ tham số, trong khi Microsoft ra mắt Phi-3 Mini, dao động từ 3,8 đến 14 tỷ tham số. Meta cũng không kém cạnh với Llama-3 phiên bản 8 tỷ tham số, trong khi startup Pháp Mistral gây chú ý với Mixtral 8x7B. OpenAI vừa công bố GPT-4o với chi phí vận hành thấp hơn đáng kể trên đám mây. Google cũng đang phát triển Gemini Nano và Gemma thế hệ 2, tiếp nối thành công của Gemma 7 tỷ tham số, đủ nhỏ để chạy cục bộ trên thiết bị.

Mặc dù mô hình lớn với số lượng tham số khổng lồ mang đến khả năng tạo sinh nội dung vượt trội, xử lý được các yêu cầu phức tạp, nhưng chúng lại đòi hỏi trung tâm dữ liệu khổng lồ với chi phí vận hành khổng lồ, lên đến hàng chục tỷ USD. Việc thuyết phục doanh nghiệp lựa chọn mô hình AI "khủng long" với chi phí dựa trên hàng triệu token là một thách thức không nhỏ. Chưa kể đến những lo ngại về bảo mật thông tin và quyền riêng tư khi dữ liệu được tải lên đám mây.

Mô hình AI kích thước nhỏ, với khả năng vận hành cục bộ trên thiết bị đầu cuối, giải quyết được bài toán chi phí và bảo mật. Eric Boyd, phó chủ tịch phụ trách nền tảng Azure AI của Microsoft, nhận định: "Mô hình AI chất lượng cao, chi phí thấp mở ra cơ hội phát triển nhiều ứng dụng mới, trước đây bị hạn chế bởi bài toán kinh tế". Nick Clegg, chủ tịch phụ trách quan hệ toàn cầu của Meta, tự tin khẳng định Llama 8 tỷ tham số có sức mạnh tương đương GPT-4, trong khi Microsoft cho biết Phi-3 Small, mô hình 7 tỷ tham số của họ, vượt trội hơn cả GPT-3.5.

1716195636276.png

Cuộc đua giảm chi phí vận hành của các mô hình AI

Ưu điểm lớn nhất của mô hình "cỡ nhỏ" là dữ liệu người dùng được xử lý trực tiếp trên thiết bị, không cần truyền tải đi nơi khác. Charlotte Marshall, luật sư tại Addleshaw Goddard, cho biết đây là yếu tố quan trọng giúp doanh nghiệp, đặc biệt là các ngân hàng, tuân thủ quy định nghiêm ngặt về quản lý dữ liệu khách hàng.

Sam Altman, CEO OpenAI, khẳng định OpenAI cung cấp đa dạng mô hình AI với kích thước khác nhau để đáp ứng nhu cầu đa dạng của khách hàng. Mặc dù OpenAI vẫn tập trung vào mô hình lớn với khả năng mở rộng và tư duy vượt trội, Altman cũng bày tỏ sự hứng thú với tiềm năng của mô hình "cỡ nhỏ".
#trítuệnhântạo #chatGPT
 


Đăng nhập một lần thảo luận tẹt ga
Top