Mức tiêu thụ điện hàng ngày của ChatGPT vượt quá 500.000 kilowatt giờ, gấp 17.000 lần so với các hộ gia đình Mỹ

Christine May

Editor
Thành viên BQT
Theo Financial Associated Press, tạp chí "The New Yorker" gần đây đã đưa tin rằng ChatGPT của OpenAI có thể tiêu thụ hơn 500.000 kilowatt giờ (500.000 kilowatt giờ) điện mỗi ngày, bởi vì người dùng toàn cầu của ChatGPT gửi 200 triệu yêu cầu truy cập mỗi ngày.
Để so sánh, một hộ gia đình trung bình ở Mỹ sử dụng 29 kilowatt giờ điện mỗi ngày. Nói cách khác, ChatGPT sử dụng lượng điện nhiều hơn 17.000 lần mỗi ngày so với một hộ gia đình trung bình ở Mỹ!
Không còn nghi ngờ gì nữa, khi thế giới đang phát triển AI thì sẽ tiêu thụ nhiều năng lượng hơn. Theo một bài báo gần đây được xuất bản bởi Alex de Vries, nhà khoa học dữ liệu tại Ngân hàng Quốc gia Hà Lan, dự kiến trong 3 năm tới, ngành AI toàn cầu sẽ tiêu thụ 85-134 terawatt giờ điện.
Điều đáng nói là 1 terawatt giờ tương đương với 1 tỷ kilowatt giờ điện!
1710317895976.png

Trên thực tế, nhà sáng lập NVIDIA Huang Jenxun và nhà sáng lập OpenAI Sam Altman đều đã đưa ra cảnh báo về hiện tượng AI “đốt cháy sức mạnh”.
Theo báo cáo của Financial Street, Huang Jensen đã nói trong một bài phát biểu trước công chúng rằng sự phát triển của AI thực sự có mối liên hệ chặt chẽ với việc lưu trữ năng lượng. Huang Renxun cho rằng giờ đây mọi người không nên chỉ tập trung vào sức mạnh tính toán của AI mà nên xem xét vấn đề tiêu thụ năng lượng một cách toàn diện hơn.
Huang Renxun đã cảnh báo rõ ràng trong bài phát biểu của mình rằng mục đích cuối cùng của AI là quang điện và lưu trữ năng lượng, nếu chỉ xem xét máy tính, con người sẽ cần đốt cháy năng lượng của 14 trái đất!
Ngoài ra, Ultraman thực tế cũng đưa ra quan điểm tương tự. Altman cho rằng ngành công nghiệp AI trong tương lai sẽ phụ thuộc nhiều vào năng lượng, đặc biệt là công nghệ quang điện và lưu trữ năng lượng, và chúng ta cần nhiều quang điện và lưu trữ năng lượng hơn.
 


Đăng nhập một lần thảo luận tẹt ga
Top