DeepSeek R2 sắp ra mắt: 1.200 tỷ tham số, huấn luyện bằng chip Huawei, rẻ hơn GPT-4 tới 97%

Thế Việt
Thế Việt
Phản hồi: 0
Sau khi gây tiếng vang lớn với mô hình R1, công ty AI Trung Quốc DeepSeek được cho là đang chuẩn bị tung ra "cú sốc" tiếp theo mang tên DeepSeek R2. Những thông tin rò rỉ gần đây từ truyền thông Trung Quốc (được trang Wccftech tổng hợp lại) đang vẽ nên chân dung một mô hình AI thế hệ mới với quy mô khổng lồ, kiến trúc tiên tiến, và đặc biệt là chi phí vận hành siêu rẻ cùng khả năng huấn luyện hiệu quả trên chip "cây nhà lá vườn" của Huawei, hứa hẹn sẽ tiếp tục làm thay đổi cuộc chơi AI toàn cầu.

deepseek-r2-768x512_jpg_75.jpg

DeepSeek R2: Quy mô ngang ngửa GPT-4, chi phí chỉ bằng 3%?

Theo các nguồn tin rò rỉ, DeepSeek R2 sẽ có kích thước lên tới 1,2 nghìn tỷ (1.2 Trillion) tham số, gấp đôi so với R1 và ngang ngửa với các mô hình hàng đầu hiện nay như GPT-4 Turbo của OpenAI hay Gemini 2.0 Pro của Google. Mô hình này được cho là sử dụng kiến trúc MoE (Mixture of Experts) dạng hybrid tiên tiến, có thể kết hợp các lớp chuyên biệt (sparse) và lớp dày đặc (dense) hoặc dùng cơ chế "gating" thông minh để tối ưu hóa hiệu suất xử lý và tiết kiệm tài nguyên tính toán.

deepseek-r2-sap-ra-mat-2_jpg_75.jpg


Nhưng điểm gây chấn động nhất là chi phí vận hành được đồn đoán. Thông tin rò rỉ cho rằng chi phí cho mỗi triệu token đầu vào của R2 chỉ khoảng 0,07 USD và mỗi triệu token đầu ra là 0,27 USD. Nếu con số này là chính xác, nó rẻ hơn tới 97,4% so với mức giá hiện tại của GPT-4. Đây sẽ là một lợi thế cạnh tranh cực lớn, có khả năng thu hút hàng loạt doanh nghiệp chuyển sang sử dụng giải pháp của DeepSeek để tiết kiệm chi phí khổng lồ.
Bước tiến tự chủ phần cứng với chip Huawei Ascend

Một thông tin quan trọng khác là DeepSeek R2 được cho là đã huấn luyện thành công và đạt hiệu suất sử dụng tới 82% trên các cụm siêu chip AI Huawei Ascend 910B. Đây là dòng chip AI cao cấp do Trung Quốc tự thiết kế và sản xuất (dù có thể vẫn cần quy trình gia công bên ngoài), với cụm thử nghiệm đạt sức mạnh tính toán 512 PetaFLOPS (FP16). Việc DeepSeek có thể tối ưu và huấn luyện hiệu quả một mô hình quy mô nghìn tỷ tham số trên phần cứng nội địa cho thấy một bước tiến lớn trong nỗ lực giảm sự phụ thuộc vào công nghệ GPU của Mỹ (đặc biệt là Nvidia), vốn đang bị hạn chế xuất khẩu sang Trung Quốc.

Chờ đợi lời xác nhận chính thức

Cần nhấn mạnh rằng, tất cả các thông tin về DeepSeek R2 hiện tại vẫn chỉ dừng ở mức độ tin đồn và rò rỉ, chưa được DeepSeek chính thức xác nhận. Tuy nhiên, sau những gì DeepSeek R1 đã làm được (chứng minh năng lực AI Trung Quốc và khả năng phát triển chi phí thấp), những tin đồn về R2 hoàn toàn có cơ sở để gây chú ý. Nếu trở thành sự thật, DeepSeek R2 với quy mô lớn, chi phí cực thấp và được huấn luyện trên phần cứng nội địa sẽ là một đòn giáng mạnh vào thị trường AI toàn cầu, khẳng định sự trỗi dậy mạnh mẽ của các thế lực AI đến từ Trung Quốc. Cộng đồng công nghệ đang nóng lòng chờ đợi thông báo chính thức từ DeepSeek.

#DeepSeek
 


Đăng nhập một lần thảo luận tẹt ga
Top