Những chi phí vô hình khi sử dụng các mô hình AI như ChatGPT

Thoại Viết Hoàng
Thoại Viết Hoàng
Phản hồi: 0
ChatGPT thực sự đang góp phần gây ra vấn đề chứ không phải giải quyết nó.
Giám đốc điều hành OpenAI Sam Altman đã nói trong nhiều tháng rằng những lợi ích mà trí tuệ nhân tạo có thể mang lại vượt xa những rủi ro.
Những chi phí vô hình khi sử dụng các mô hình AI như ChatGPT
Khi đề cập đến rủi ro, anh ấy đang thảo luận về tiềm năng của một mô hình AI ngoài tầm kiểm soát có thể tàn phá nền văn minh.
“Nếu công nghệ này gặp trục trặc, nó có thể trở nên tồi tệ,” ông nói tại phiên điều trần vào tháng 5 của Thượng viện về giám sát AI.
Bất cứ khi nào Altman thảo luận về những lợi ích đó, anh ấy luôn đề cập đến hai điều: giải quyết biến đổi khí hậu và chữa bệnh ung thư.
LLMs 'không thực sự có khía cạnh khí hậu tích cực'
“Chúng tôi đang làm việc để xây dựng các công cụ mà một ngày nào đó có thể giải quyết một số thách thức lớn nhất của nhân loại,” ông nói trong bài phát biểu khai mạc tại phiên điều trần, “như biến đổi khí hậu và chữa bệnh ung thư.”
Nhưng thực tế là những mô hình ngôn ngữ lớn (LLM) này không phải là giải pháp phù hợp.
Tiến sĩ Sasha Luccioni, nhà nghiên cứu hàng đầu về đạo đức AI nói với The Street: “Có rất nhiều ứng dụng tích cực về khí hậu của AI. Các ứng dụng này có thể bao gồm phân tích dữ liệu vệ tinh để phát hiện cháy rừng chẳng hạn. Nhưng các loại mô hình có thể có những tác động tích cực đến khí hậu này là "mạng lưới thần kinh nhỏ. Lượng khí thải carbon của chúng tương đối nhỏ, nhưng chúng có tiềm năng lớn."
LLM - như ChatGPT - "cần rất nhiều tài nguyên máy tính, nhưng chúng không thực sự có khía cạnh khí hậu tích cực," Luccioni nói.
"Đó là sự phân đôi," cô nói. "Chúng tôi có thể làm những điều tuyệt vời cho khí hậu với AI, điều mà chúng tôi đang làm ở một mức độ nào đó, nhưng nó đang bị vô hiệu bởi các mô hình ngôn ngữ lớn này và lượng tài nguyên mà chúng cần."
Tác động môi trường của AI
Ước tính lượng khí thải carbon của các LLM phổ biến, như ChatGPT hoặc Bard, gần như không thể thực hiện được do thiếu minh bạch nghiêm trọng.
Luccioni nói: “Vấn đề là, với các mô hình ngôn ngữ lớn, phần lớn là nguồn đóng và vì vậy bạn không thực sự có quyền truy cập vào các chi tiết cơ bản của chúng. "Và vì vậy, thật khó để thực hiện bất kỳ loại nghiên cứu có ý nghĩa nào về chúng bởi vì bạn không biết chúng đang chạy ở đâu, chúng lớn như thế nào. Bạn không biết nhiều về chúng."
Tuy nhiên, ý tưởng quay trở lại khái niệm cơ bản rằng bất cứ thứ gì được cung cấp bởi lưới điện bẩn sẽ dẫn đến lượng khí thải carbon. Những thứ đòi hỏi sức mạnh tính toán khổng lồ, như ChatGPT, sẽ tạo ra nhiều khí thải hơn.
Một nhà khoa học dữ liệu người Đan Mạch, Kasper Groes Albin Ludvigsen, đã thử ước tính sản lượng điện của ChatGPT vào tháng 1 khi mô hình này chạy trên GPT-3, có 175 tỷ tham số.
Các tính toán của ông, dựa trên một LLM ước tính rằng vào tháng 1, ChatGPT đã sử dụng từ 1,2 triệu đến 23,4 triệu kWh.
Trong khi đó, một hộ gia đình trung bình ở Hoa Kỳ đã tiêu thụ 886 kWh mỗi tháng vào năm 2021.
Nhưng ngay cả với ước tính điện thô đó, việc cố gắng tìm ra lượng khí thải carbon thậm chí còn khó khăn hơn. Mỗi lưới là khác nhau và số lượng trung tâm dữ liệu được sử dụng để chạy ChatGPT, cũng như vị trí của chúng, có thể có tác động lớn đến lượng khí thải carbon thực tế của các mô hình này.
"Chúng tôi đã thực hiện một nghiên cứu về Bloom, đây là mô hình ngôn ngữ mã nguồn mở đầu tiên," Luccioni cho biết thêm rằng lượng khí thải carbon từ một mô hình cụ thể sẽ "thực sự thay đổi tùy thuộc vào nơi bạn triển khai mô hình, số lượng yêu cầu bạn nhận được , bạn cần bao nhiêu GPU, v.v.."
Trong khoảng thời gian 18 ngày, Bloom tiêu thụ 914 kWh điện và có lượng khí thải carbon là 340 kg. Trong khoảng thời gian này, mô hình đã xử lý tổng số 230.768 yêu cầu.
ChatGPT trong tháng 1 đã cán mốc 100 triệu người dùng hoạt động hàng tháng, với tổng số gần 600 triệu lượt truy cập.
Ngoài mức tiêu thụ điện, các trung tâm dữ liệu cung cấp năng lượng cho các mô hình này sử dụng một lượng nước khổng lồ -- cũng không rõ -- cho mục đích làm mát. Một nghiên cứu gần đây cho thấy "việc đào tạo GPT-3 tại các trung tâm dữ liệu hiện đại nhất của Microsoft tại Hoa Kỳ có thể tiêu thụ trực tiếp 700.000 lít nước ngọt sạch. Lượng nước tiêu thụ sẽ tăng gấp ba lần nếu việc đào tạo được thực hiện tại các trung tâm dữ liệu của Microsoft tại Châu Á, nhưng như vậy thông tin đã được giữ bí mật."
Theo EPA, một hộ gia đình trung bình ở Hoa Kỳ sử dụng khoảng 300 gallon nước mỗi ngày, tương đương khoảng 1.135 lít.
ChatGPT là 'Giải pháp một kích thước phù hợp với tất cả'
Đối với Luccioni, vấn đề lớn hơn -- bên cạnh sự thiếu minh bạch -- là xu hướng sử dụng các mô hình lớn hơn, kém hiệu quả hơn như ChatGPT ngày càng tăng ở những nơi không thực sự hợp lý.
OpenAI đã không trả lời yêu cầu bình luận
Luccioni cho biết đã từng có "tất cả các loại mô hình cho tất cả các loại thử nghiệm, điều này có ý nghĩa. Ngày nay, bạn có tình huống 'điều này sẽ giải quyết được mọi thứ'. Và tôi nghĩ đó là điều đáng để suy nghĩ lại vì các mô hình ngày càng lớn hơn. "
Nguồn:
 


Đăng nhập một lần thảo luận tẹt ga
Top