Khôi Nguyên
Writer
Giữa những lo ngại ngày càng tăng về tác động môi trường của trí tuệ nhân tạo, Google vừa công bố một nghiên cứu chi tiết cho thấy họ đã đạt được một bước đột phá quan trọng: giảm tới 33 lần mức tiêu thụ năng lượng cho mỗi lệnh giao tiếp (prompt) với AI chỉ trong vòng một năm qua.
Không giống như các nghiên cứu học thuật chỉ có thể ước tính, Google có quyền truy cập vào dữ liệu vận hành thực tế của toàn bộ hệ thống. Trong bản phân tích mới nhất, công ty đã theo dõi và tính toán toàn bộ năng lượng tiêu thụ, từ các con chip xử lý, bộ nhớ, cho đến hệ thống làm mát tại các trung tâm dữ liệu.
Kết quả cho thấy, một lệnh giao tiếp bằng văn bản trung bình với Gemini hiện chỉ tiêu thụ 0,24 watt-giờ (Wh) năng lượng. Để dễ hình dung, Google so sánh con số này chỉ tương đương với khoảng 9 giây xem TV. Lượng khí thải carbon tương ứng cũng rất nhỏ, chỉ 0,03 gram, và lượng nước tiêu thụ là 0,26 mililít.
Sự cải thiện vượt bậc này không chỉ đến từ việc Google ngày càng sử dụng nhiều năng lượng tái tạo hơn, mà chủ yếu đến từ các tối ưu hóa về mặt phần mềm và phần cứng.
Thành tựu của Google được xem là một tin tức tốt lành trong bối cảnh ngành công nghệ đang phải đối mặt với "cơn khát" năng lượng. Gần đây, việc sử dụng điện tại Mỹ đã tăng gần 4% so với cùng kỳ năm trước, chấm dứt một xu hướng ổn định kéo dài hàng thập kỷ, một phần lớn do sự bùng nổ của các trung tâm dữ liệu AI.
Việc tối ưu hóa hiệu quả sử dụng năng lượng không chỉ giúp giảm chi phí vận hành mà còn là một yếu tố then chốt để đảm bảo sự phát triển bền vững của ngành trí tuệ nhân tạo (AI) trong tương lai.

Con số ấn tượng: Một lệnh AI chỉ tốn bằng 9 giây xem TV
Không giống như các nghiên cứu học thuật chỉ có thể ước tính, Google có quyền truy cập vào dữ liệu vận hành thực tế của toàn bộ hệ thống. Trong bản phân tích mới nhất, công ty đã theo dõi và tính toán toàn bộ năng lượng tiêu thụ, từ các con chip xử lý, bộ nhớ, cho đến hệ thống làm mát tại các trung tâm dữ liệu.
Kết quả cho thấy, một lệnh giao tiếp bằng văn bản trung bình với Gemini hiện chỉ tiêu thụ 0,24 watt-giờ (Wh) năng lượng. Để dễ hình dung, Google so sánh con số này chỉ tương đương với khoảng 9 giây xem TV. Lượng khí thải carbon tương ứng cũng rất nhỏ, chỉ 0,03 gram, và lượng nước tiêu thụ là 0,26 mililít.

"Bí quyết" đằng sau sự đột phá
Sự cải thiện vượt bậc này không chỉ đến từ việc Google ngày càng sử dụng nhiều năng lượng tái tạo hơn, mà chủ yếu đến từ các tối ưu hóa về mặt phần mềm và phần cứng.
- Kiến trúc "Hỗn hợp chuyên gia" (Mixture-of-Experts): Thay vì phải kích hoạt toàn bộ mô hình AI khổng lồ cho mỗi yêu cầu, kiến trúc này cho phép hệ thống chỉ kích hoạt một phần nhỏ của mô hình cần thiết để xử lý, giúp giảm nhu cầu tính toán từ 10 đến 100 lần.
- Các phiên bản mô hình nhỏ gọn: Google đã phát triển nhiều phiên bản AI nhỏ gọn hơn để xử lý các tác vụ đơn giản, giúp giảm tải cho các mô hình lớn.
- Chip AI tùy chỉnh: Việc Google tự thiết kế các con chip tăng tốc AI của riêng mình (TPU) cho phép họ có thể tối ưu hóa cả phần cứng và phần mềm để chúng hoạt động cùng nhau một cách hiệu quả nhất. Hoạt động trên các con chip này chiếm tới hơn một nửa tổng mức tiêu thụ năng lượng của một truy vấn.
Một tin tốt lành trong bối cảnh "cơn khát" năng lượng
Thành tựu của Google được xem là một tin tức tốt lành trong bối cảnh ngành công nghệ đang phải đối mặt với "cơn khát" năng lượng. Gần đây, việc sử dụng điện tại Mỹ đã tăng gần 4% so với cùng kỳ năm trước, chấm dứt một xu hướng ổn định kéo dài hàng thập kỷ, một phần lớn do sự bùng nổ của các trung tâm dữ liệu AI.
Việc tối ưu hóa hiệu quả sử dụng năng lượng không chỉ giúp giảm chi phí vận hành mà còn là một yếu tố then chốt để đảm bảo sự phát triển bền vững của ngành trí tuệ nhân tạo (AI) trong tương lai.