myle.vnreview
Writer
Công ty đầu tư lớn nhất vào OpenAI mua gần nửa triệu GPU trong năm nay nhằm chạy đua xây dựng hệ thống trí tuệ nhân tạo.
Kho chip của Microsoft, dưới sự lãnh đạo của Satya Nadella, đã mang lại cho công ty này lợi thế trong cuộc đua xây dựng thế hệ hệ thống AI tiếp theo.
Microsoft đã mua số lượng chip hàng đầu của Nvidia nhiều gấp đôi so với bất kỳ đối thủ lớn nhất nào tại Mỹ và Trung Quốc trong năm nay nhằm đẩy nhanh khoản đầu tư vào cơ sở hạ tầng trí tuệ nhân tạo.
Các nhà phân tích tại công ty tư vấn công nghệ Omdia ước tính rằng Microsoft đã mua 485.000 chip "Hopper" của Nvidia trong năm nay. Số lượng đó đưa Microsoft vượt xa khách hàng lớn tiếp theo của Nvidia tại Mỹ là Meta, công ty đã mua 224.000 chip Hopper, cũng như các đối thủ điện toán đám mây là Amazon và Google.
Với nhu cầu vượt xa nguồn cung các đơn vị xử lý đồ họa tiên tiến nhất của Nvidia trong phần lớn hai năm qua, kho chip của Microsoft đã mang lại cho công ty lợi thế trong cuộc đua xây dựng thế hệ hệ thống AI tiếp theo.
Năm nay, các công ty công nghệ lớn đã chi hàng chục tỷ đô la cho các trung tâm dữ liệu chạy chip mới nhất của Nvidia, vốn đã trở thành mặt hàng nóng nhất tại Thung lũng Silicon kể từ khi ChatGPT ra mắt hai năm trước, khởi đầu cho làn sóng đầu tư chưa từng có vào AI.
Cơ sở hạ tầng đám mây Azure của Microsoft đã được sử dụng để đào tạo mô hình o1 mới nhất của OpenAI, khi họ chạy đua với Google đang trỗi dậy, các công ty khởi nghiệp như Anthropic và xAI của Elon Musk, và các đối thủ ở Trung Quốc để thống trị thế hệ máy tính tiếp theo.
Omdia ước tính ByteDance và Tencent đã đặt hàng khoảng 230.000 chip của Nvidia trong năm nay, bao gồm cả mẫu H20, phiên bản giảm hiệu sức mạnh của Hopper được sửa đổi để đáp ứng các biện pháp kiểm soát xuất khẩu của Mỹ dành cho khách hàng Trung Quốc.
Các nhà phân tích cho biết hai công ty Amazon và Google đang đẩy mạnh triển khai chip AI tùy chỉnh làm giải pháp thay thế cho Nvidia. Tuy vậy, hai công ty này cũng đã mua lần lượt 196.000 và 169.000 chip Hopper.
Microsoft đầu tư vào chip AI của Nvidia nhiều gấp đôi các đối thủ cạnh tranh
Omdia phân tích chi tiêu vốn được công bố công khai của các công ty, lô hàng máy chủ và thông tin tình báo chuỗi cung ứng để tính toán ước tính của mình.
Giá trị của Nvidia, công ty hiện đang bắt đầu tung ra Blackwell - người kế nhiệm Hopper, đã tăng vọt lên hơn 3 nghìn tỷ đô la trong năm nay khi các công ty Big Tech nhanh chóng lắp ráp các cụm GPU ngày càng lớn của mình.
Tuy nhiên, sự gia tăng phi thường của cổ phiếu Nvidia đã suy yếu trong những tháng gần đây do lo ngại về tăng trưởng chậm lại, sự cạnh tranh từ các chip AI tùy chỉnh của các công ty Big Tech và sự gián đoạn tiềm ẩn đối với hoạt động kinh doanh của công ty tại Trung Quốc từ chính quyền mới của ông Donald Trump.
ByteDance và Tencent đã nổi lên như hai trong số những khách hàng lớn nhất của Nvidia trong năm nay, bất chấp các hạn chế của chính phủ Mỹ.
Microsoft, công ty đã đầu tư 13 tỷ đô la vào OpenAI, là công ty Big Tech của Mỹ tích cực nhất trong việc xây dựng cơ sở hạ tầng trung tâm dữ liệu, vừa để chạy các dịch vụ AI của riêng mình như trợ lý Copilot vừa để cho thuê cho khách hàng thông qua bộ phận Azure.
Đơn đặt hàng chip Nvidia của Microsoft năm nay nhiều hơn gấp ba lần số lượng bộ xử lý AI công ty này đã mua vào năm 2023.
"Cơ sở hạ tầng trung tâm dữ liệu tốt, chúng là những dự án rất phức tạp và đòi hỏi nhiều vốn", Alistair Speirs, giám đốc cấp cao của Azure Global Infrastructure của Microsoft, nói với tờ Financial Times. "Chúng mất nhiều năm lập kế hoạch. Vì vậy, việc dự báo mức tăng trưởng của chúng tôi với một chút đệm là rất quan trọng".
Theo Omdia, các công ty công nghệ trên toàn thế giới sẽ chi khoảng 229 tỷ đô la cho máy chủ vào năm 2024, dẫn đầu là 31 tỷ đô la chi tiêu vốn của Microsoft và 26 tỷ đô la của Amazon. 10 công ty mua cơ sở hạ tầng trung tâm dữ liệu hàng đầu - hiện bao gồm những công ty mới tham gia là xAI và CoreWeave - chiếm 60% đầu tư toàn cầu vào sức mạnh điện toán.
Vlad Galabov, giám đốc nghiên cứu đám mây và trung tâm dữ liệu tại Omdia, cho biết khoảng 43% chi tiêu cho máy chủ đã được chuyển cho Nvidia vào năm 2024.
“GPU Nvidia chiếm một phần cực kỳ lớn trong chi phí đầu tư máy chủ”, ông cho biết. “Chúng tôi đang gần đến đỉnh điểm”.
Các công ty đầu tư nhiều nhất cho trung tâm dữ liệu
Trong khi Nvidia vẫn thống trị thị trường chip AI, đối thủ cạnh tranh của họ tại Thung lũng Silicon là AMD đã có những bước tiến đột phá. Theo Omdia, Meta đã mua 173.000 chip MI300 của AMD trong năm nay, trong khi Microsoft đã mua 96.000 chip.
Các công ty công nghệ lớn cũng đã tăng cường sử dụng chip AI riêng trong năm nay, khi họ cố gắng giảm sự phụ thuộc vào Nvidia. Google, công ty đã phát triển "bộ xử lý tensor" hay TPU trong một thập kỷ và Meta, công ty đã ra mắt thế hệ đầu tiên của chip Meta Training and Inference Accelerator vào năm ngoái, mỗi công ty đã triển khai khoảng 1,5 triệu chip riêng.
Amazon, công ty đang đầu tư mạnh vào chip Trainium và Inferentia cho khách hàng điện toán đám mây, đã triển khai khoảng 1,3 triệu chip trong số đó trong năm nay. Tháng này, Amazon cho biết họ có kế hoạch xây dựng một cụm mới sử dụng hàng trăm nghìn chip Trainium mới nhất của mình cho Anthropic, một đối thủ của OpenAI mà Amazon đã đầu tư 8 tỷ đô la, để đào tạo thế hệ mô hình AI tiếp theo của mình.
Tuy nhiên, Microsoft đã đi trước rất xa trong nỗ lực xây dựng một bộ tăng tốc AI để cạnh tranh với Nvidia, với chỉ khoảng 200.000 chip Maia được lắp đặt trong năm nay.
Speirs cho biết việc sử dụng chip của Nvidia vẫn yêu cầu Microsoft phải đầu tư đáng kể vào công nghệ của riêng mình để cung cấp dịch vụ "độc đáo" cho khách hàng.
"Theo kinh nghiệm của chúng tôi, để xây dựng cơ sở hạ tầng AI không chỉ là có chip tốt nhất mà còn phải có các thành phần lưu trữ phù hợp, cơ sở hạ tầng phù hợp, lớp phần mềm phù hợp, lớp quản lý máy chủ phù hợp, sửa lỗi và tất cả các thành phần khác để xây dựng hệ thống đó", ông cho biết.
Kho chip của Microsoft, dưới sự lãnh đạo của Satya Nadella, đã mang lại cho công ty này lợi thế trong cuộc đua xây dựng thế hệ hệ thống AI tiếp theo.
Microsoft đã mua số lượng chip hàng đầu của Nvidia nhiều gấp đôi so với bất kỳ đối thủ lớn nhất nào tại Mỹ và Trung Quốc trong năm nay nhằm đẩy nhanh khoản đầu tư vào cơ sở hạ tầng trí tuệ nhân tạo.
Các nhà phân tích tại công ty tư vấn công nghệ Omdia ước tính rằng Microsoft đã mua 485.000 chip "Hopper" của Nvidia trong năm nay. Số lượng đó đưa Microsoft vượt xa khách hàng lớn tiếp theo của Nvidia tại Mỹ là Meta, công ty đã mua 224.000 chip Hopper, cũng như các đối thủ điện toán đám mây là Amazon và Google.
Với nhu cầu vượt xa nguồn cung các đơn vị xử lý đồ họa tiên tiến nhất của Nvidia trong phần lớn hai năm qua, kho chip của Microsoft đã mang lại cho công ty lợi thế trong cuộc đua xây dựng thế hệ hệ thống AI tiếp theo.
Năm nay, các công ty công nghệ lớn đã chi hàng chục tỷ đô la cho các trung tâm dữ liệu chạy chip mới nhất của Nvidia, vốn đã trở thành mặt hàng nóng nhất tại Thung lũng Silicon kể từ khi ChatGPT ra mắt hai năm trước, khởi đầu cho làn sóng đầu tư chưa từng có vào AI.
Cơ sở hạ tầng đám mây Azure của Microsoft đã được sử dụng để đào tạo mô hình o1 mới nhất của OpenAI, khi họ chạy đua với Google đang trỗi dậy, các công ty khởi nghiệp như Anthropic và xAI của Elon Musk, và các đối thủ ở Trung Quốc để thống trị thế hệ máy tính tiếp theo.
Omdia ước tính ByteDance và Tencent đã đặt hàng khoảng 230.000 chip của Nvidia trong năm nay, bao gồm cả mẫu H20, phiên bản giảm hiệu sức mạnh của Hopper được sửa đổi để đáp ứng các biện pháp kiểm soát xuất khẩu của Mỹ dành cho khách hàng Trung Quốc.
Các nhà phân tích cho biết hai công ty Amazon và Google đang đẩy mạnh triển khai chip AI tùy chỉnh làm giải pháp thay thế cho Nvidia. Tuy vậy, hai công ty này cũng đã mua lần lượt 196.000 và 169.000 chip Hopper.
Microsoft đầu tư vào chip AI của Nvidia nhiều gấp đôi các đối thủ cạnh tranh
Omdia phân tích chi tiêu vốn được công bố công khai của các công ty, lô hàng máy chủ và thông tin tình báo chuỗi cung ứng để tính toán ước tính của mình.
Giá trị của Nvidia, công ty hiện đang bắt đầu tung ra Blackwell - người kế nhiệm Hopper, đã tăng vọt lên hơn 3 nghìn tỷ đô la trong năm nay khi các công ty Big Tech nhanh chóng lắp ráp các cụm GPU ngày càng lớn của mình.
Tuy nhiên, sự gia tăng phi thường của cổ phiếu Nvidia đã suy yếu trong những tháng gần đây do lo ngại về tăng trưởng chậm lại, sự cạnh tranh từ các chip AI tùy chỉnh của các công ty Big Tech và sự gián đoạn tiềm ẩn đối với hoạt động kinh doanh của công ty tại Trung Quốc từ chính quyền mới của ông Donald Trump.
ByteDance và Tencent đã nổi lên như hai trong số những khách hàng lớn nhất của Nvidia trong năm nay, bất chấp các hạn chế của chính phủ Mỹ.
Microsoft, công ty đã đầu tư 13 tỷ đô la vào OpenAI, là công ty Big Tech của Mỹ tích cực nhất trong việc xây dựng cơ sở hạ tầng trung tâm dữ liệu, vừa để chạy các dịch vụ AI của riêng mình như trợ lý Copilot vừa để cho thuê cho khách hàng thông qua bộ phận Azure.
Đơn đặt hàng chip Nvidia của Microsoft năm nay nhiều hơn gấp ba lần số lượng bộ xử lý AI công ty này đã mua vào năm 2023.
"Cơ sở hạ tầng trung tâm dữ liệu tốt, chúng là những dự án rất phức tạp và đòi hỏi nhiều vốn", Alistair Speirs, giám đốc cấp cao của Azure Global Infrastructure của Microsoft, nói với tờ Financial Times. "Chúng mất nhiều năm lập kế hoạch. Vì vậy, việc dự báo mức tăng trưởng của chúng tôi với một chút đệm là rất quan trọng".
Theo Omdia, các công ty công nghệ trên toàn thế giới sẽ chi khoảng 229 tỷ đô la cho máy chủ vào năm 2024, dẫn đầu là 31 tỷ đô la chi tiêu vốn của Microsoft và 26 tỷ đô la của Amazon. 10 công ty mua cơ sở hạ tầng trung tâm dữ liệu hàng đầu - hiện bao gồm những công ty mới tham gia là xAI và CoreWeave - chiếm 60% đầu tư toàn cầu vào sức mạnh điện toán.
Vlad Galabov, giám đốc nghiên cứu đám mây và trung tâm dữ liệu tại Omdia, cho biết khoảng 43% chi tiêu cho máy chủ đã được chuyển cho Nvidia vào năm 2024.
“GPU Nvidia chiếm một phần cực kỳ lớn trong chi phí đầu tư máy chủ”, ông cho biết. “Chúng tôi đang gần đến đỉnh điểm”.
Các công ty đầu tư nhiều nhất cho trung tâm dữ liệu
Trong khi Nvidia vẫn thống trị thị trường chip AI, đối thủ cạnh tranh của họ tại Thung lũng Silicon là AMD đã có những bước tiến đột phá. Theo Omdia, Meta đã mua 173.000 chip MI300 của AMD trong năm nay, trong khi Microsoft đã mua 96.000 chip.
Các công ty công nghệ lớn cũng đã tăng cường sử dụng chip AI riêng trong năm nay, khi họ cố gắng giảm sự phụ thuộc vào Nvidia. Google, công ty đã phát triển "bộ xử lý tensor" hay TPU trong một thập kỷ và Meta, công ty đã ra mắt thế hệ đầu tiên của chip Meta Training and Inference Accelerator vào năm ngoái, mỗi công ty đã triển khai khoảng 1,5 triệu chip riêng.
Amazon, công ty đang đầu tư mạnh vào chip Trainium và Inferentia cho khách hàng điện toán đám mây, đã triển khai khoảng 1,3 triệu chip trong số đó trong năm nay. Tháng này, Amazon cho biết họ có kế hoạch xây dựng một cụm mới sử dụng hàng trăm nghìn chip Trainium mới nhất của mình cho Anthropic, một đối thủ của OpenAI mà Amazon đã đầu tư 8 tỷ đô la, để đào tạo thế hệ mô hình AI tiếp theo của mình.
Tuy nhiên, Microsoft đã đi trước rất xa trong nỗ lực xây dựng một bộ tăng tốc AI để cạnh tranh với Nvidia, với chỉ khoảng 200.000 chip Maia được lắp đặt trong năm nay.
Speirs cho biết việc sử dụng chip của Nvidia vẫn yêu cầu Microsoft phải đầu tư đáng kể vào công nghệ của riêng mình để cung cấp dịch vụ "độc đáo" cho khách hàng.
"Theo kinh nghiệm của chúng tôi, để xây dựng cơ sở hạ tầng AI không chỉ là có chip tốt nhất mà còn phải có các thành phần lưu trữ phù hợp, cơ sở hạ tầng phù hợp, lớp phần mềm phù hợp, lớp quản lý máy chủ phù hợp, sửa lỗi và tất cả các thành phần khác để xây dựng hệ thống đó", ông cho biết.