Ngày 6/2, Tập đoàn Công nghiệp – Viễn thông Quân đội (Viettel) chính thức đưa vào vận hành hệ thống siêu máy tính NVIDIA DGX B200 đầu tiên do Việt Nam sở hữu. Đây là nền tảng hạ tầng tính toán hiệu năng cao hiện đại nhất thế giới, phục vụ nghiên cứu và phát triển các mô hình trí tuệ nhân tạo (AI) thế hệ mới.
Trung tâm Dịch vụ dữ liệu và Trí tuệ nhân tạo Viettel (Viettel AI) là đơn vị trực tiếp vận hành hệ thống siêu máy tính này, nghiên cứu phát triển các mô hình AI Việt Nam
Hệ thống siêu máy tính B200 có hiệu năng lên tới 1,5 ExaFLOPs FP8, tương đương 1.500 triệu tỷ phép tính mỗi giây. Đây là một trong các hệ thống AI hiệu năng cao tiên tiến nhất của NVIDIA hiện nay, được các hãng công nghệ lớn và nhiều quốc gia đặc biệt quan tâm và đặt hàng sớm, do đóng vai trò hạ tầng then chốt quyết định năng lực phát triển AI. Trên nền tảng này, các hệ thống AI có thể được phát triển và triển khai một cách an toàn, đáng tin cậy, tuân thủ quy định pháp luật Việt Nam và phù hợp với điều kiện thực tiễn trong nước.
Hiện nay, Viettel AI đã bắt đầu huấn luyện và tới ưu các mô hình ngôn ngữ lớn (LLM) tiếng Việt phục vụ các chương trình chuyển đổi số quốc gia, song song phát triển các các mô hình đa mô thức tích hợp văn bản – hình ảnh – âm thanh – video, các mô hình AI tạo sinh chuyên biệt cho từng lĩnh vực.
Được triển khai tại Trung tâm kỹ thuật Viettel Hòa Lạc, hệ thống siêu máy tính B200 đầu tiên do Việt Nam sở hữu sẽ trở thành hạ tầng AI lõi và nền tảng tính toán chiến lược dài hạn của Viettel.
Trên cơ sở đó, Viettel sẵn sàng chia sẻ năng lực tính toán với các đối tác, viện nghiên cứu và doanh nghiệp Việt Nam, góp phần thúc đẩy hệ sinh thái AI trong nước phát triển theo hướng tự chủ, an toàn và bền vững.
B200 là chip thiết kế dạng khuôn kép (dual-die) đầu tiên của NVIDIA, với 208 tỷ bóng bán dẫn, cho hiệu suất suy luận (inference) gấp 15 lần thế hệ cũ.
CEO Jensen Huang từng tiết lộ chi phí phát triển kiến trúc Blackwell tiêu tốn khoảng 10 tỷ USD.
Nguồn: Viettel
Lưu ý rằng B200 chỉ có sẵn trong các phiên bản 8 GPU trên AWS và GCP.
Trung tâm Dịch vụ dữ liệu và Trí tuệ nhân tạo Viettel (Viettel AI) là đơn vị trực tiếp vận hành hệ thống siêu máy tính này, nghiên cứu phát triển các mô hình AI Việt Nam
Hệ thống siêu máy tính B200 có hiệu năng lên tới 1,5 ExaFLOPs FP8, tương đương 1.500 triệu tỷ phép tính mỗi giây. Đây là một trong các hệ thống AI hiệu năng cao tiên tiến nhất của NVIDIA hiện nay, được các hãng công nghệ lớn và nhiều quốc gia đặc biệt quan tâm và đặt hàng sớm, do đóng vai trò hạ tầng then chốt quyết định năng lực phát triển AI. Trên nền tảng này, các hệ thống AI có thể được phát triển và triển khai một cách an toàn, đáng tin cậy, tuân thủ quy định pháp luật Việt Nam và phù hợp với điều kiện thực tiễn trong nước.
Hiện nay, Viettel AI đã bắt đầu huấn luyện và tới ưu các mô hình ngôn ngữ lớn (LLM) tiếng Việt phục vụ các chương trình chuyển đổi số quốc gia, song song phát triển các các mô hình đa mô thức tích hợp văn bản – hình ảnh – âm thanh – video, các mô hình AI tạo sinh chuyên biệt cho từng lĩnh vực.
Được triển khai tại Trung tâm kỹ thuật Viettel Hòa Lạc, hệ thống siêu máy tính B200 đầu tiên do Việt Nam sở hữu sẽ trở thành hạ tầng AI lõi và nền tảng tính toán chiến lược dài hạn của Viettel.
Trên cơ sở đó, Viettel sẵn sàng chia sẻ năng lực tính toán với các đối tác, viện nghiên cứu và doanh nghiệp Việt Nam, góp phần thúc đẩy hệ sinh thái AI trong nước phát triển theo hướng tự chủ, an toàn và bền vững.
B200 là chip thiết kế dạng khuôn kép (dual-die) đầu tiên của NVIDIA, với 208 tỷ bóng bán dẫn, cho hiệu suất suy luận (inference) gấp 15 lần thế hệ cũ.
CEO Jensen Huang từng tiết lộ chi phí phát triển kiến trúc Blackwell tiêu tốn khoảng 10 tỷ USD.
Nguồn: Viettel
Thông số kỹ thuật và hiệu năng của Blackwell B200
B200 thể hiện một bước tiến vượt bậc về khả năng GPU: được xây dựng trên quy trình 4NP của TSMC, nó tích hợp 208 tỷ bóng bán dẫn trên thiết kế hai chip, cho phép cả lõi Tensor FP4 mới và bộ chuyển mạch NVSwitch tích hợp trên chip.- Quy trình sản xuất : TSMC 4NP với 208 tỷ bóng bán dẫn (hai chip)
- Bộ nhớ : 192 GB HBM3e (các bảng điều khiển đám mây cung cấp 180 GB khả dụng) - gấp 2,4 lần dung lượng của H100.
- Băng thông : Băng thông bộ nhớ 8 TB/s, gấp đôi thông lượng của Hopper.
- Hiệu năng tính toán tối đa : 20 PFLOPS FP4 với độ thưa thớt 2:1 - gấp khoảng 5 lần thông lượng suy luận của H100.
- Kết nối liên mạng : NVLink 5 tốc độ 1,8 TB/s hai chiều, loại bỏ các nút thắt cổ chai PCIe.
Giá dịch vụ đám mây NVIDIA B200
Dưới đây là giá bán lẻ từng GPU của dòng B200 từ các nhà cung cấp lớn, xếp theo thứ tự từ tùy chọn mua linh hoạt nhất đến ít linh hoạt nhất (tháng 7 năm 2025):| Nhà cung cấp & Mã sản phẩm | Không máy chủ | Điểm | Theo yêu cầu | Khối dung lượng | Đặt chỗ 1 năm | Đặt chỗ 3 năm | Nguồn định giá |
|---|---|---|---|---|---|---|---|
| Modal | 6,25 đô la/giờ | không áp dụng | không áp dụng | không áp dụng | không áp dụng | không áp dụng | Định giá theo mô hình |
| Baseten | 9,98 đô la/giờ | không áp dụng | không áp dụng | không áp dụng | không áp dụng | không áp dụng | Giá Baseten |
| RunPod | không áp dụng | không áp dụng | 5,99 đô la/giờ | không áp dụng | Khoảng 5,09 đô la/giờ | không áp dụng | Giá Runpod |
| Lambda Labs | không áp dụng | không áp dụng | 3,79 đô la/giờ | không áp dụng | 3,49 đô la/giờ | 2,99 đô la/giờ | Bảng giá Lambda Labs |
| AWS | không áp dụng | không áp dụng | 14,24 đô la/giờ | 8,14 đô la/giờ | Khoảng 12,50 đô la/giờ | không áp dụng | Vantage , Gói tiết kiệm AWS , Giá khối dung lượng AWS |
| GCP | không áp dụng | 8,06 đô la/giờ | 18,53 đô la/giờ | không áp dụng | 11,12 đô la/giờ | 7,09 đô la/giờ | Giá Vertex , Giá Google Cloud , Giá Spot |
Giá Blackwell B200
- Mô-đun B200 SXM độc lập : 30.000 - 40.000 USD (một bo mạch GPU 700W)
- Siêu chip Grace-Blackwell GB200 : 60.000 - 70.000 USD (1 CPU Grace + 2 B200)
- NVIDIA DGX B200 : ~515.000 USD (8 card B200, RAM GPU 1,44 TB, hiệu năng 72 PFLOPS FP8)