Khôi Nguyên
Writer
Ông Eric Schmidt, người từng giữ vị trí CEO (2001-2011) và Chủ tịch điều hành (đến 2017) của Google, vừa đưa ra những cảnh báo mạnh mẽ về tốc độ phát triển và những hệ lụy tiềm ẩn của Trí tuệ Nhân tạo (AI). Phát biểu tại một hội thảo của tổ chức Special Competitive Studies Project do chính ông thành lập và trong phiên điều trần trước Ủy ban Năng lượng và Thương mại Hạ viện Mỹ, ông Schmidt vẽ nên một bức tranh tương lai gần đầy biến động, nơi AI có thể sớm vượt khỏi tầm kiểm soát ban đầu của con người.
AI đang tiến tới tự chủ và "phớt lờ" con người?
Một trong những cảnh báo đáng chú ý nhất của ông Schmidt là về khả năng "tự cải tiến đệ quy" (recursive self-improvement) của các hệ thống AI hiện đại. Ông cho rằng AI đang bắt đầu có khả năng tự học hỏi, tự lên kế hoạch và tự hoàn thiện mà không cần nhiều sự can thiệp từ con người. Điều này có thể dẫn đến một tương lai không xa nơi AI "chẳng còn cần nghe theo chúng ta nữa".
"Máy tính bây giờ đang biết cách tự hoàn thiện mình. Chúng học cách lên kế hoạch," ông nhấn mạnh, mô tả một quá trình mà AI tự hình thành giả thuyết, thử nghiệm (có thể thông qua các phòng thí nghiệm robot tự động) và tiếp tục nghiên cứu độc lập.
Nguy cơ thay thế lập trình viên trong vòng 1 năm?
Trái ngược với quan điểm của nhiều người trong ngành (như CEO OpenAI Sam Altman, người cho rằng AI sẽ tăng năng suất lập trình viên lên 10 lần chứ không thay thế họ), ông Schmidt đưa ra một dự báo gây sốc: AI có thể thay thế phần lớn, thậm chí gần như toàn bộ, các lập trình viên hiện nay chỉ trong vòng một năm tới. Ông cũng tin rằng AI đang tiến nhanh đến mức có thể vượt qua cả những chuyên gia giỏi nhất trong các lĩnh vực như toán học.
Ông lập luận rằng năng lực thực sự của AI hiện tại đang bị đánh giá thấp, chứ không phải bị thổi phồng. Ông lấy ví dụ về việc các công cụ AI tạo sinh phổ biến như ChatGPT, Claude, Gemini hay DeepSeek, dù không được huấn luyện chuyên biệt cho lập trình, lại đang được các lập trình viên sử dụng rộng rãi và hiệu quả cho chính công việc viết mã. Khi AI có khả năng tự cải thiện mã nguồn của chính nó, tốc độ phát triển sẽ trở nên theo hàm mũ.
Khủng hoảng năng lượng và rủi ro từ mã nguồn mở
Bên cạnh tác động đến thị trường lao động, ông Schmidt còn đặc biệt nhấn mạnh hai nguy cơ lớn khác:
Tuy nhiên, dù đưa ra những cảnh báo mạnh mẽ về khả năng tự chủ và tác động của AI, ông Schmidt vẫn khẳng định vai trò trung tâm của con người. Ông nhấn mạnh AI vẫn cần sự quản trị từ con người và phải dựa vào dữ liệu chất lượng cao để phát huy tiềm năng một cách đúng đắn. "Các nhà khoa học phải là người kiểm soát, còn AI chỉ nên là công cụ hỗ trợ - đó mới là trật tự đúng," ông kết luận.
Những cảnh báo từ một nhân vật có tầm ảnh hưởng lớn trong ngành công nghệ như Eric Schmidt chắc chắn sẽ thúc đẩy thêm các cuộc thảo luận cấp bách về việc làm thế nào để định hướng sự phát triển của AI một cách an toàn, có trách nhiệm và đảm bảo lợi ích cho toàn xã hội trước khi công nghệ này thực sự "vượt ra khỏi tầm kiểm soát".

AI đang tiến tới tự chủ và "phớt lờ" con người?
Một trong những cảnh báo đáng chú ý nhất của ông Schmidt là về khả năng "tự cải tiến đệ quy" (recursive self-improvement) của các hệ thống AI hiện đại. Ông cho rằng AI đang bắt đầu có khả năng tự học hỏi, tự lên kế hoạch và tự hoàn thiện mà không cần nhiều sự can thiệp từ con người. Điều này có thể dẫn đến một tương lai không xa nơi AI "chẳng còn cần nghe theo chúng ta nữa".
"Máy tính bây giờ đang biết cách tự hoàn thiện mình. Chúng học cách lên kế hoạch," ông nhấn mạnh, mô tả một quá trình mà AI tự hình thành giả thuyết, thử nghiệm (có thể thông qua các phòng thí nghiệm robot tự động) và tiếp tục nghiên cứu độc lập.
Nguy cơ thay thế lập trình viên trong vòng 1 năm?
Trái ngược với quan điểm của nhiều người trong ngành (như CEO OpenAI Sam Altman, người cho rằng AI sẽ tăng năng suất lập trình viên lên 10 lần chứ không thay thế họ), ông Schmidt đưa ra một dự báo gây sốc: AI có thể thay thế phần lớn, thậm chí gần như toàn bộ, các lập trình viên hiện nay chỉ trong vòng một năm tới. Ông cũng tin rằng AI đang tiến nhanh đến mức có thể vượt qua cả những chuyên gia giỏi nhất trong các lĩnh vực như toán học.

Ông lập luận rằng năng lực thực sự của AI hiện tại đang bị đánh giá thấp, chứ không phải bị thổi phồng. Ông lấy ví dụ về việc các công cụ AI tạo sinh phổ biến như ChatGPT, Claude, Gemini hay DeepSeek, dù không được huấn luyện chuyên biệt cho lập trình, lại đang được các lập trình viên sử dụng rộng rãi và hiệu quả cho chính công việc viết mã. Khi AI có khả năng tự cải thiện mã nguồn của chính nó, tốc độ phát triển sẽ trở nên theo hàm mũ.
Khủng hoảng năng lượng và rủi ro từ mã nguồn mở
Bên cạnh tác động đến thị trường lao động, ông Schmidt còn đặc biệt nhấn mạnh hai nguy cơ lớn khác:
- Khủng hoảng năng lượng: Nhu cầu điện năng khổng lồ để huấn luyện và vận hành các mô hình AI tiên tiến đang tăng với tốc độ chóng mặt. Ông cảnh báo Hạ viện Mỹ rằng nhu cầu này sẽ sớm vượt quá khả năng đáp ứng của hệ thống lưới điện hiện tại. "Mọi người đang nghĩ đến việc xây dựng các trung tâm dữ liệu tiêu thụ tới 10 gigawatt. Trong khi đó, một nhà máy điện hạt nhân trung bình của Mỹ chỉ cung cấp được khoảng 1 gigawatt," ông đưa ra ví dụ so sánh đáng báo động và kêu gọi Mỹ phải nhanh chóng điều chỉnh chính sách năng lượng.
- Rủi ro từ AI mã nguồn mở: Ông Schmidt bày tỏ lo ngại về các mô hình AI mã nguồn mở. Dù thúc đẩy sự đổi mới, nhưng nếu không được kiểm soát tốt, chúng có thể rơi vào tay kẻ xấu và trở thành mối đe dọa nghiêm trọng đối với an ninh quốc gia. Ông kêu gọi cần có sự giám sát chặt chẽ hơn đối với các nền tảng này.
Tuy nhiên, dù đưa ra những cảnh báo mạnh mẽ về khả năng tự chủ và tác động của AI, ông Schmidt vẫn khẳng định vai trò trung tâm của con người. Ông nhấn mạnh AI vẫn cần sự quản trị từ con người và phải dựa vào dữ liệu chất lượng cao để phát huy tiềm năng một cách đúng đắn. "Các nhà khoa học phải là người kiểm soát, còn AI chỉ nên là công cụ hỗ trợ - đó mới là trật tự đúng," ông kết luận.
Những cảnh báo từ một nhân vật có tầm ảnh hưởng lớn trong ngành công nghệ như Eric Schmidt chắc chắn sẽ thúc đẩy thêm các cuộc thảo luận cấp bách về việc làm thế nào để định hướng sự phát triển của AI một cách an toàn, có trách nhiệm và đảm bảo lợi ích cho toàn xã hội trước khi công nghệ này thực sự "vượt ra khỏi tầm kiểm soát".