Microsoft mở mã nguồn BitNet: Tương lai AI chạy offline ngay trên laptop, điện thoại, không cần kết nối mạng

Yu Ki San
Yu Ki San
Phản hồi: 0

Yu Ki San

Writer
Microsoft vừa tạo ra một bước tiến đáng chú ý trong lĩnh vực Trí tuệ Nhân tạo (AI) với việc giới thiệu BitNet b1.58 2B4T – mô hình AI "1-bit" lớn nhất từng được huấn luyện. Điểm đột phá lớn nhất của BitNet là khả năng hoạt động hiệu quả hoàn toàn trên CPU, bao gồm cả các chip tiết kiệm năng lượng như Apple M2, mà không cần đến sự hỗ trợ của các bộ xử lý đồ họa (GPU) cao cấp, vốn là yêu cầu gần như bắt buộc đối với các mô hình AI mạnh mẽ hiện nay. Đáng chú ý, Microsoft đã phát hành mô hình này dưới dạng mã nguồn mở theo giấy phép MIT.

microsofts-bitnet-revolutionizing-ai-with-cpu-efficiency-0-EG6GLj5q_jpg_75.jpg

Những điểm chính
  • Microsoft giới thiệu mô hình AI "1-bit" mới BitNet b1.58 2B4T (2 tỷ tham số), huấn luyện trên 4 nghìn tỷ token, được phát hành mã nguồn mở.
  • Điểm đột phá: Có thể chạy hiệu quả hoàn toàn trên CPU (kể cả chip như Apple M2), không cần GPU, với hiệu năng vượt trội (nhanh gấp đôi, ít RAM hơn) so với các model cùng kích thước (Llama 1B, Gemma 1B...).
  • Hạn chế hiện tại: Chưa hỗ trợ GPU, hoạt động tốt nhất trên framework bitnet.cpp chuyên biệt, gây khó khăn cho triển khai quy mô lớn trên hạ tầng hiện có.
AI "1-bit" là gì và tại sao nó quan trọng?

Các Mô hình ngôn ngữ lớn (LLM) truyền thống thường lưu trữ mỗi tham số (trọng số - parameter/weight) bằng 16 hoặc 32 bit dữ liệu. BitNet, ngược lại, sử dụng một phương pháp lượng tử hóa cực đoan, biểu diễn mỗi trọng số chỉ bằng một trong ba giá trị: -1, 0 hoặc 1. Nhờ đó, toàn bộ trọng số của mô hình có thể được mã hóa chỉ bằng 1 hoặc 1.58 bit (theo tên gọi b1.58).

Cách tiếp cận này mang lại lợi ích kép khổng lồ:
  • Giảm thiểu bộ nhớ: Dung lượng lưu trữ mô hình giảm đi đáng kể.
  • Tăng tốc độ xử lý: Các phép toán trở nên đơn giản hơn rất nhiều, cho phép mô hình chạy nhanh hơn đáng kể, đặc biệt là trên kiến trúc CPU thông thường.
Hiệu năng ấn tượng dù "nhẹ ký"

Mặc dù có kích thước tham số tương đối khiêm tốn (2 tỷ tham số - 2B), BitNet b1.58 2B4T được huấn luyện trên một tập dữ liệu cực lớn lên tới 4 nghìn tỷ (4T) token (tương đương khoảng 33 triệu cuốn sách). Nhờ vậy, nó vẫn thể hiện hiệu năng ấn tượng trên nhiều bài kiểm tra benchmark quan trọng, như khả năng giải toán tiểu học (GSM8K) hay suy luận vật lý đời thường (PIQA).

Trong các so sánh trực tiếp, Microsoft cho biết BitNet vượt trội hơn các đối thủ cùng kích thước như Meta Llama 3.2 1B, Google Gemma 3 1B và Alibaba Qwen 2.5 1.5B không chỉ về độ chính xác trong nhiều tác vụ mà còn về hiệu quả tài nguyên: nhanh gấp đôi nhưng sử dụng ít bộ nhớ RAM hơn nhiều lần.


01-21_webp_75.jpg

Tiềm năng và hạn chế hiện tại

Với kích thước nhỏ gọn và khả năng chạy tốt trên CPU, BitNet mở ra tiềm năng to lớn cho việc triển khai AI mạnh mẽ trên các thiết bị có tài nguyên hạn chế như điện thoại thông minh, máy tính xách tay mỏng nhẹ, hoặc các thiết bị nhúng (IoT), nơi việc trang bị GPU đắt đỏ là không khả thi. Điều này có thể giúp "dân chủ hóa" AI, đưa công nghệ này đến gần hơn với người dùng cuối mà không đòi hỏi phần cứng chuyên dụng.

Tuy nhiên, BitNet hiện tại vẫn có những hạn chế nhất định. Nó hoạt động tối ưu nhất trên bitnet.cpp, một framework chuyên biệt do chính Microsoft phát triển. Quan trọng hơn, mô hình này chưa hỗ trợ tăng tốc bằng GPU. Điều này gây khó khăn cho việc huấn luyện hoặc triển khai ở quy mô rất lớn, vì hạ tầng AI hiện nay chủ yếu dựa trên GPU.

Dù vậy, việc một mô hình AI 2 tỷ tham số có thể chạy hiệu quả trên CPU như Apple M2 đã là một thành tựu đáng kể. Microsoft tin rằng AI hoàn toàn có thể cải thiện nếu được đào tạo theo hướng chuyên sâu hơn. Nếu trong tương lai, BitNet mở rộng khả năng tương thích phần cứng (hỗ trợ GPU và các nền tảng khác), mô hình "1-bit" này có thể thực sự tạo ra một cuộc cách mạng trong việc phổ cập AI, đưa trí tuệ nhân tạo mạnh mẽ ra khỏi các trung tâm dữ liệu và tích hợp vào cuộc sống hàng ngày một cách hiệu quả và tiết kiệm nhất.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top