From Beijing with Love
Cháu đã lớn thế này rồi à. Lại đây chú ôm cái coi.
Một nhóm chuyên gia từ Đại học California Riverside và Đại học Texas Arlington đang nghiên cứu về lượng nước tiêu thụ trong quá trình đào tạo các mô hình AI lớn như ChatGPT của OpenAI và Bard của Google. Nghiên cứu tập trung vào lượng nước "tiêu thụ" - lượng nước bị mất đi do bay hơi khi sử dụng trong trung tâm dữ liệu, chứ không phải lượng nước "rút ra" từ nguồn. Nhóm nhấn mạnh việc giải quyết vấn đề tiêu thụ nước của AI là một phần quan trọng trong nỗ lực chung nhằm đối phó với các thách thức về nước toàn cầu.
Trung tâm dữ liệu trung bình sử dụng khoảng 3,8 lít nước cho mỗi kWh và cần sử dụng nước ngọt nguyên sơ để tránh ăn mòn và vi khuẩn phát triển, cũng như kiểm soát độ ẩm. Ngoài ra còn có "nước tiêu thụ gián tiếp bên ngoài", tức lượng nước dùng để sản xuất điện năng cho trung tâm dữ liệu.
Nghiên cứu cho thấy các trung tâm dữ liệu lớn dùng để đào tạo AI cần lượng nước làm mát khổng lồ. Với ChatGPT, lượng nước này tương đương với lượng nước lấp đầy tháp giải nhiệt của một nhà máy điện hạt nhân. Chỉ riêng việc đào tạo GPT-3 đã tiêu tốn 700.000 lít nước, đủ để sản xuất 370 xe BMW hoặc 320 xe Tesla. Mỗi tương tác điển hình của người dùng với ChatGPT tương đương với việc đổ một chai nước ngọt lớn xuống đất. ChatGPT, ra đời sau GPT-3, cần khoảng 500ml nước cho một cuộc trò chuyện cơ bản gồm 25-50 câu hỏi.
Microsoft, đối tác của OpenAI, đã đầu tư hàng tỷ USD và xây dựng siêu máy tính với 10.000 card đồ họa và hơn 285.000 lõi xử lý để đào tạo AI. Siêu máy tính này đòi hỏi hệ thống làm mát cực lớn và mạnh mẽ.
Các chuyên gia lo ngại lượng nước tiêu thụ của chatbot có thể ảnh hưởng đến nguồn cung cấp nước, đặc biệt trong bối cảnh hạn hán và biến đổi khí hậu. Nghiên cứu ước tính lượng nước tiêu thụ dựa trên giả định quá trình đào tạo diễn ra tại trung tâm dữ liệu tiên tiến của Microsoft tại Mỹ. Lượng nước này có thể gấp 3 lần nếu đào tạo tại trung tâm dữ liệu kém hiệu quả năng lượng hơn. Với các mô hình AI tiên tiến hơn như GPT-4, nhu cầu nước dự kiến sẽ tiếp tục tăng.
Trung tâm dữ liệu trung bình sử dụng khoảng 3,8 lít nước cho mỗi kWh và cần sử dụng nước ngọt nguyên sơ để tránh ăn mòn và vi khuẩn phát triển, cũng như kiểm soát độ ẩm. Ngoài ra còn có "nước tiêu thụ gián tiếp bên ngoài", tức lượng nước dùng để sản xuất điện năng cho trung tâm dữ liệu.
Nghiên cứu cho thấy các trung tâm dữ liệu lớn dùng để đào tạo AI cần lượng nước làm mát khổng lồ. Với ChatGPT, lượng nước này tương đương với lượng nước lấp đầy tháp giải nhiệt của một nhà máy điện hạt nhân. Chỉ riêng việc đào tạo GPT-3 đã tiêu tốn 700.000 lít nước, đủ để sản xuất 370 xe BMW hoặc 320 xe Tesla. Mỗi tương tác điển hình của người dùng với ChatGPT tương đương với việc đổ một chai nước ngọt lớn xuống đất. ChatGPT, ra đời sau GPT-3, cần khoảng 500ml nước cho một cuộc trò chuyện cơ bản gồm 25-50 câu hỏi.
Microsoft, đối tác của OpenAI, đã đầu tư hàng tỷ USD và xây dựng siêu máy tính với 10.000 card đồ họa và hơn 285.000 lõi xử lý để đào tạo AI. Siêu máy tính này đòi hỏi hệ thống làm mát cực lớn và mạnh mẽ.
Các chuyên gia lo ngại lượng nước tiêu thụ của chatbot có thể ảnh hưởng đến nguồn cung cấp nước, đặc biệt trong bối cảnh hạn hán và biến đổi khí hậu. Nghiên cứu ước tính lượng nước tiêu thụ dựa trên giả định quá trình đào tạo diễn ra tại trung tâm dữ liệu tiên tiến của Microsoft tại Mỹ. Lượng nước này có thể gấp 3 lần nếu đào tạo tại trung tâm dữ liệu kém hiệu quả năng lượng hơn. Với các mô hình AI tiên tiến hơn như GPT-4, nhu cầu nước dự kiến sẽ tiếp tục tăng.