CEO Google Deepmind cảnh báo nguy cơ AI sánh ngang con người trong mọi tác vụ

Homelander The Seven
Homelander The Seven
Phản hồi: 0

Homelander The Seven

I will laser every f****** one of you!
Ngày 17 tháng 3 năm 2025, tại trụ sở DeepMind ở London, CEO Demis Hassabis đã chia sẻ quan điểm về tương lai của trí tuệ nhân tạo tổng quát (AGI – Artificial General Intelligence) – loại AI có khả năng ngang bằng hoặc vượt qua con người ở mọi nhiệm vụ. Trong buổi họp báo, Hassabis dự đoán AGI sẽ bắt đầu xuất hiện trong vòng 5 đến 10 năm tới, một mốc thời gian dài hơn so với nhiều dự đoán lạc quan từ các lãnh đạo công nghệ khác. Liệu AGI có thực sự gần kề, hay chúng ta vẫn còn một chặng đường dài phía trước?

Hassabis định nghĩa AGI là “một hệ thống thể hiện mọi khả năng phức tạp mà con người có thể thực hiện.” Hiện tại, các hệ thống AI như AlphaGo của DeepMind hay ChatGPT của OpenAI rất ấn tượng ở một số lĩnh vực cụ thể – như chơi cờ vây hay tạo văn bản – nhưng vẫn thiếu nhiều kỹ năng quan trọng. “Chúng rất thụ động và còn nhiều điều không thể làm được,” ông nói. “Chúng ta vẫn cần rất nhiều nghiên cứu trước khi đạt đến AGI.”
Dự đoán 5-10 năm của Hassabis khá thận trọng so với các lãnh đạo khác:
  • Dario Amodei (Anthropic): Tại Diễn đàn Kinh tế Thế giới ở Davos tháng 1/2025, Amodei cho rằng AI “vượt trội hơn hầu hết con người ở hầu hết nhiệm vụ” sẽ xuất hiện trong 2-3 năm tới.
  • Jeetu Patel (Cisco): Trong sự kiện Mobile World Congress ở Barcelona tháng 2/2025, Patel lạc quan hơn, dự đoán “dấu hiệu rõ ràng của AGI” có thể xuất hiện ngay trong năm 2025, với siêu trí tuệ (ASI – Artificial Super Intelligence) chỉ cách vài năm.
  • Elon Musk (Tesla): Năm 2024, Musk dự đoán AGI sẽ ra đời vào năm 2026.
  • Sam Altman (OpenAI): Altman nói AGI có thể đến trong “tương lai gần hợp lý.”
1742269730710.png


Tuy nhiên, không phải ai cũng đồng tình với sự vội vã này. CEO Baidu Robin Li năm ngoái cho rằng AGI còn cách ít nhất 10 năm, phù hợp hơn với quan điểm của Hassabis. Sự khác biệt này phản ánh những góc nhìn đa dạng về tốc độ phát triển AI và những thách thức còn lại.

Hassabis nhấn mạnh rằng rào cản lớn nhất để đạt AGI là khả năng hiểu bối cảnh thực tế của các hệ thống AI hiện nay. Trong môi trường giới hạn như trò chơi (ví dụ: cờ vây hay StarCraft), AI đã chứng minh khả năng giải quyết vấn đề và lập kế hoạch tự chủ. DeepMind từng làm nên lịch sử khi AlphaGo đánh bại Lee Sedol năm 2016, và sau đó phát triển các tác tử AI (agents) chơi StarCraft với chiến lược phức tạp.

Nhưng áp dụng những kỹ năng này vào thế giới thực lại là một câu chuyện khác. Hassabis giải thích: “Vấn đề là làm sao để khái quát hóa các ý tưởng lập kế hoạch và hành vi tự chủ, rồi áp dụng chúng vào thực tế, dựa trên các mô hình thế giới (world models) – tức là mô hình hiểu được môi trường xung quanh.” Ông cho rằng DeepMind đã tiến bộ trong việc xây dựng mô hình thế giới trong vài năm qua, nhưng bước tiếp theo là kết hợp chúng với thuật toán lập kế hoạch thì vẫn là bài toán hóc búa.

1742269762632.png


Cả Hassabis và Thomas Kurian (CEO Google Cloud) đều đề cập đến hệ thống đa tác tử như một xu hướng quan trọng. Đây là các hệ thống nơi nhiều AI agents tương tác – có thể cạnh tranh hoặc hợp tác – giống như một xã hội thu nhỏ. Hassabis lấy ví dụ về dự án StarCraft của DeepMind: “Chúng tôi đã tạo ra một ‘liên minh tác tử’, nơi chúng học cách phối hợp hoặc đối đầu nhau.”

Kurian bổ sung rằng giao tiếp giữa các tác tử là yếu tố then chốt: “Bạn cần một giao diện để một tác tử có thể nói: ‘Tôi có kỹ năng gì? Tôi dùng công cụ nào?’ Khi đó, các tác tử khác có thể giao tiếp và làm việc cùng nó.” Điều này gợi ý một tương lai nơi AI không chỉ hoạt động độc lập mà còn phối hợp như một đội, mô phỏng cách con người giải quyết vấn đề phức tạp.

Sau AGI, bước tiếp theo là siêu trí tuệ (ASI) – AI vượt xa trí thông minh con người. Hassabis thừa nhận “không ai thực sự biết” khi nào ASI sẽ xuất hiện, nhưng ông tin nó sẽ đến sau AGI. Patel của Cisco dự đoán ASI có thể chỉ cách vài năm sau AGI, trong khi Musk và Altman thường né tránh đưa ra mốc cụ thể cho ASI, tập trung vào AGI trước. Thách thức với ASI không chỉ là kỹ thuật mà còn là triết lý và đạo đức. Một hệ thống vượt xa con người có thể mang lại lợi ích to lớn (như chữa bệnh hay giải quyết biến đổi khí hậu) nhưng cũng tiềm ẩn rủi ro nếu không được kiểm soát. Hassabis, với vai trò lãnh đạo DeepMind – đơn vị thuộc Google nổi tiếng về nghiên cứu AI có trách nhiệm – có thể đang thận trọng để đảm bảo sự phát triển bền vững.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top