Điều gì khiến chi phí AI tăng vọt dù công nghệ không đổi?

Quang Trương
Quang Trương
Phản hồi: 0
Vì sao doanh nghiệp có AI tốt, chiến lược hay, vẫn “đứng hình” chỉ vì… không mua được chip?
1767760288012.png

Cuộc chiến chip AI 2025, bài học đắt giá về chuỗi cung ứng mà nhiều doanh nghiệp không ngờ tới​

Nếu nhìn lại năm 2025, nhiều lãnh đạo công nghệ sẽ thừa nhận một sự thật khá phũ phàng: AI không thất bại vì thuật toán kém, cũng không vì thiếu ý tưởng, mà vì… phần cứng không đến kịp. Chuỗi cung ứng chip AI đã trở thành điểm nghẽn lớn nhất, quan trọng hơn cả roadmap phần mềm hay lời hứa từ các hãng công nghệ.

Điều này đặc biệt đáng suy ngẫm với các doanh nghiệp Việt Nam, nơi AI đang được kỳ vọng như đòn bẩy năng suất mới, nhưng lại phụ thuộc gần như hoàn toàn vào hạ tầng toàn cầu.

Ban đầu, mọi chuyện tưởng chỉ xoay quanh các biện pháp kiểm soát xuất khẩu của Mỹ nhằm hạn chế chip AI sang Trung Quốc. Nhưng rất nhanh, nó biến thành một cuộc khủng hoảng hạ tầng toàn cầu. Nhu cầu AI bùng nổ quá nhanh, trong khi năng lực sản xuất chip, vốn tuân theo nhịp độ vật lý chậm chạp, không thể mở rộng kịp.

Đến cuối năm 2025, chi phí AI trong doanh nghiệp tăng vọt không phải vì AI “thông minh hơn”, mà vì mọi thứ phía dưới trở nên khan hiếm. Theo khảo sát của CloudZero với 500 chuyên gia kỹ thuật, chi tiêu AI trung bình đạt 85.521 USD mỗi tháng, tương đương hơn 2,2 tỷ VNĐ, tăng 36% so với năm trước. Tỷ lệ doanh nghiệp chi trên 100.000 USD mỗi tháng, tức hơn 2,6 tỷ VNĐ, đã tăng từ 20% lên 45%.

Không phải vì họ muốn tiêu nhiều hơn, mà vì không còn lựa chọn rẻ hơn.

Chip nhớ, kẻ bóp nghẹt hạ tầng AI toàn cầu​

Trong khi truyền thông tập trung vào GPU và lệnh cấm xuất khẩu, thì điểm nghẽn nguy hiểm hơn lại nằm ở chip nhớ. Bộ nhớ băng thông cao HBM, thành phần sống còn để GPU AI hoạt động, rơi vào tình trạng thiếu hụt nghiêm trọng. Samsung, SK Hynix, Micron đều chạy gần hết công suất, nhưng thời gian giao hàng vẫn kéo dài từ 6 đến 12 tháng.

Giá DRAM tăng hơn 50% trong năm 2025, giá hợp đồng máy chủ có quý tăng tới 50%. Samsung thậm chí tăng giá chip nhớ máy chủ từ 30% đến 60% và dự báo đầu 2026 còn tăng thêm khoảng 20%.

Hàng tồn kho DRAM toàn cầu giảm xuống mức chỉ đủ dùng 2 đến 4 tuần. SK Hynix thừa nhận toàn bộ sản lượng bộ nhớ năm 2026 đã được bán hết, và tình trạng thiếu có thể kéo dài đến cuối 2027.

Ngay cả các “ông lớn” cũng phải tranh giành. Google, Amazon, Microsoft, Meta đặt mua không giới hạn từ Micron. Alibaba, Tencent, ByteDance gây áp lực để được ưu tiên. OpenAI còn ký thỏa thuận sơ bộ cho dự án Stargate, yêu cầu tới 900.000 wafer mỗi tháng vào năm 2029, gấp đôi sản lượng HBM toàn cầu hiện nay.

Hệ quả là tiến độ triển khai AI bị kéo dài đáng kể. Đầu 2025, một dự án AI doanh nghiệp mất khoảng 6 đến 12 tháng để hoàn thiện. Cuối năm, con số này giãn ra 12 đến 18 tháng, thậm chí lâu hơn.

Không chỉ thiếu chip, mà còn thiếu điện. Bain & Company cho biết nhiều trung tâm dữ liệu phải chờ tới 5 năm chỉ để được đấu nối vào lưới điện. Nhu cầu điện toàn cầu cho trung tâm dữ liệu dự kiến tăng thêm 163GW vào năm 2030, phần lớn do AI tạo sinh.

CEO Microsoft Satya Nadella nói thẳng: vấn đề không phải thiếu chip, mà là thiếu năng lực hạ tầng để dùng được số chip đó. Có chip mà không có điện, thì chip cũng chỉ nằm kho.

Trong môi trường này, người mua công nghệ buộc phải đặt cược sớm, mua trước, trữ trước, dù biết phần cứng có thể nhanh lỗi thời. Không mua thì không có, mà mua thì rủi ro cao.

Chi phí ẩn, thứ khiến ngân sách AI “vỡ trận”​

Giá chip tăng chỉ là phần nổi. Phía dưới là hàng loạt chi phí ẩn.

Công nghệ đóng gói CoWoS của TSMC, yếu tố bắt buộc để gắn HBM với chip AI, đã kín lịch đến hết 2025. Điều này tạo ra một điểm nghẽn thứ cấp, kéo dài thêm nhiều tháng giao hàng.

SSD NVMe doanh nghiệp tăng giá 15–20% vì AI đòi hỏi băng thông và độ bền cao hơn. Theo Bain, riêng chi phí bộ nhớ đã khiến tổng chi vật tư tăng thêm 5–10%.

Chưa kể chi phí vận hành. Doanh nghiệp phải chi từ 50.000 đến 250.000 USD mỗi năm, tức khoảng 1,3 đến 6,5 tỷ VNĐ, cho giám sát, quản trị, hỗ trợ hạ tầng AI. Việc vượt ngưỡng sử dụng GPU trên đám mây khiến hóa đơn hàng tháng tăng đột biến, đặc biệt với các nhóm huấn luyện mô hình lớn.

Những tổ chức đi qua năm 2025 tương đối suôn sẻ đều có điểm chung. Họ đa dạng hóa nguồn cung sớm, ký hợp đồng dài hạn thay vì mua theo nhu cầu tức thời. Họ lập ngân sách với biên độ biến động 20–30%, coi biến động giá là điều hiển nhiên.

Quan trọng hơn, họ tối ưu trước khi mở rộng. Lượng tử hóa, cắt tỉa mô hình, tối ưu suy luận giúp giảm nhu cầu GPU từ 30–70% trong nhiều trường hợp. Một số tổ chức chọn mô hình hạ tầng lai, kết hợp GPU đám mây với cụm máy chủ riêng để kiểm soát chi phí và độ ổn định.

Và lần đầu tiên, yếu tố địa chính trị được đưa thẳng vào thiết kế kiến trúc AI. Doanh nghiệp có liên hệ với Trung Quốc buộc phải xây dựng hệ thống linh hoạt về pháp lý, thay vì giả định môi trường ổn định.

Nhà máy chip mới cần nhiều năm để xây dựng. Phần lớn mở rộng công suất công bố năm 2025 chỉ có thể vận hành từ 2027 trở đi. Kiểm soát xuất khẩu tiếp tục thay đổi, với các quy định mới của Mỹ và khả năng siết thêm các tuyến trung chuyển như Malaysia, Thái Lan.

Thiếu chip nhớ có thể làm chậm hàng trăm tỷ USD đầu tư AI toàn cầu, kéo lùi các kỳ vọng tăng năng suất, đồng thời tạo thêm áp lực lạm phát.

Cuối cùng, năm 2025 để lại một bài học rất “đời”: phần mềm chạy theo tốc độ số, phần cứng chạy theo tốc độ vật lý, còn địa chính trị chạy theo tốc độ chính trị. Khoảng lệch giữa ba tốc độ đó quyết định AI có thực sự triển khai được hay không.

Và trong cuộc chơi này, kẻ thắng không phải người mơ lớn nhất, mà là người hiểu rõ nhất thực tế chuỗi cung ứng, rồi lên kế hoạch phù hợp. (artificialintelligence)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2RpZXUtZ2kta2hpZW4tY2hpLXBoaS1haS10YW5nLXZvdC1kdS1jb25nLW5naGUta2hvbmctZG9pLjc3MDA3Lw==
Top