Homelander The Seven
I will laser every f****** one of you!
Trong tập mới nhất của podcast "Beyond The Valley" của CNBC phát sóng hôm thứ Ba, hai nhà khoa học AI nổi tiếng thế giới, Max Tegmark (giáo sư tại Viện Công nghệ Massachusetts - MIT và Chủ tịch Viện Tương lai của Sự sống) và Yoshua Bengio (một trong những "cha đẻ của AI" và là giáo sư tại Đại học Montréal), đã bày tỏ lo ngại về trí tuệ nhân tạo tổng quát (AGI). AGI là thuật ngữ dùng để chỉ các hệ thống AI thông minh hơn con người.
Nỗi sợ của họ bắt nguồn từ việc các công ty lớn nhất thế giới hiện đang nói về "AI agents" (tác nhân AI) hoặc "agentic AI" (AI có tính chủ động) - mà các công ty tuyên bố sẽ cho phép các chatbot AI hoạt động như trợ lý hoặc tác nhân và hỗ trợ trong công việc và cuộc sống hàng ngày. Các ước tính trong ngành về thời điểm AGI xuất hiện rất khác nhau.
Theo Bengio, khái niệm này đi kèm với ý tưởng rằng các hệ thống AI có thể có một số "quyền tự chủ" và suy nghĩ riêng. "Các nhà nghiên cứu về AI đã lấy cảm hứng từ trí thông minh của con người để xây dựng trí thông minh nhân tạo, và ở con người, có sự kết hợp giữa khả năng hiểu thế giới như trí thông minh thuần túy và hành vi chủ động, có nghĩa là... sử dụng kiến thức của bạn để đạt được mục tiêu," Bengio nói với "Beyond The Valley" của CNBC.
"Hiện tại, đây là cách chúng ta đang xây dựng AGI: chúng ta đang cố gắng biến chúng thành những tác nhân hiểu biết nhiều về thế giới, và sau đó có thể hành động tương ứng. Nhưng đây thực sự là một đề xuất rất nguy hiểm." Bengio nói thêm rằng việc theo đuổi phương pháp này sẽ giống như "tạo ra một loài mới hoặc một thực thể thông minh mới trên hành tinh này" và "không biết liệu chúng có hành xử theo cách phù hợp với nhu cầu của chúng ta hay không."
"Thay vào đó, chúng ta có thể xem xét, đâu là những kịch bản mà mọi thứ trở nên tồi tệ và tất cả chúng đều dựa vào quyền tự chủ? Nói cách khác, chính vì AI có mục tiêu riêng mà chúng ta có thể gặp rắc rối." Ý tưởng về việc tự bảo tồn cũng có thể xuất hiện khi AI trở nên thông minh hơn, Bengio nói.
"Chúng ta có muốn cạnh tranh với những thực thể thông minh hơn chúng ta không? Đó không phải là một canh bạc đáng yên tâm, phải không? Vì vậy, chúng ta phải hiểu làm thế nào mà sự tự bảo tồn có thể xuất hiện như một mục tiêu trong AI."
Đối với Tegmark của MIT, chìa khóa nằm ở cái gọi là "tool AI" (AI công cụ) - các hệ thống được tạo ra cho một mục đích cụ thể, được xác định rõ ràng, nhưng không cần phải là tác nhân. Tegmark cho biết một công cụ AI có thể là một hệ thống cho bạn biết cách chữa ung thư, hoặc một thứ gì đó có "một số quyền tự chủ" như một chiếc xe tự lái "nơi bạn có thể chứng minh hoặc có được một số đảm bảo thực sự cao, thực sự đáng tin cậy rằng bạn vẫn có thể kiểm soát nó."
"Tôi nghĩ, trên một lưu ý lạc quan ở đây, chúng ta có thể có gần như mọi thứ mà chúng ta hào hứng với AI... nếu chúng ta đơn giản là nhấn mạnh vào việc có một số tiêu chuẩn an toàn cơ bản trước khi mọi người có thể bán các hệ thống AI mạnh mẽ," Tegmark nói.
"Họ phải chứng minh rằng chúng ta có thể kiểm soát chúng. Sau đó, ngành công nghiệp sẽ đổi mới nhanh chóng để tìm ra cách làm điều đó tốt hơn."
Viện Tương lai của Sự sống của Tegmark vào năm 2023 đã kêu gọi tạm dừng phát triển các hệ thống AI có thể cạnh tranh với trí thông minh cấp độ con người. Mặc dù điều đó đã không xảy ra, Tegmark cho biết mọi người đang nói về chủ đề này, và bây giờ là lúc hành động để tìm ra cách đặt các rào cản để kiểm soát AGI.
"Vì vậy, ít nhất bây giờ rất nhiều người đang nói lý thuyết. Chúng ta phải xem liệu chúng ta có thể khiến họ thực hành hay không," Tegmark nói với "Beyond The Valley" của CNBC. "Rõ ràng là điên rồ khi chúng ta, con người, xây dựng một thứ gì đó thông minh hơn chúng ta trước khi chúng ta tìm ra cách kiểm soát nó."
Có nhiều quan điểm khác nhau về thời điểm AGI sẽ đến, một phần do các định nghĩa khác nhau. Giám đốc điều hành OpenAI Sam Altman cho biết công ty của ông biết cách xây dựng AGI và cho biết nó sẽ đến sớm hơn mọi người nghĩ, mặc dù ông đã hạ thấp tác động của công nghệ này. "Tôi đoán là chúng ta sẽ đạt được AGI sớm hơn hầu hết mọi người trên thế giới nghĩ và nó sẽ ít quan trọng hơn nhiều," Altman nói vào tháng 12.
Nỗi sợ của họ bắt nguồn từ việc các công ty lớn nhất thế giới hiện đang nói về "AI agents" (tác nhân AI) hoặc "agentic AI" (AI có tính chủ động) - mà các công ty tuyên bố sẽ cho phép các chatbot AI hoạt động như trợ lý hoặc tác nhân và hỗ trợ trong công việc và cuộc sống hàng ngày. Các ước tính trong ngành về thời điểm AGI xuất hiện rất khác nhau.
Theo Bengio, khái niệm này đi kèm với ý tưởng rằng các hệ thống AI có thể có một số "quyền tự chủ" và suy nghĩ riêng. "Các nhà nghiên cứu về AI đã lấy cảm hứng từ trí thông minh của con người để xây dựng trí thông minh nhân tạo, và ở con người, có sự kết hợp giữa khả năng hiểu thế giới như trí thông minh thuần túy và hành vi chủ động, có nghĩa là... sử dụng kiến thức của bạn để đạt được mục tiêu," Bengio nói với "Beyond The Valley" của CNBC.
"Hiện tại, đây là cách chúng ta đang xây dựng AGI: chúng ta đang cố gắng biến chúng thành những tác nhân hiểu biết nhiều về thế giới, và sau đó có thể hành động tương ứng. Nhưng đây thực sự là một đề xuất rất nguy hiểm." Bengio nói thêm rằng việc theo đuổi phương pháp này sẽ giống như "tạo ra một loài mới hoặc một thực thể thông minh mới trên hành tinh này" và "không biết liệu chúng có hành xử theo cách phù hợp với nhu cầu của chúng ta hay không."
"Thay vào đó, chúng ta có thể xem xét, đâu là những kịch bản mà mọi thứ trở nên tồi tệ và tất cả chúng đều dựa vào quyền tự chủ? Nói cách khác, chính vì AI có mục tiêu riêng mà chúng ta có thể gặp rắc rối." Ý tưởng về việc tự bảo tồn cũng có thể xuất hiện khi AI trở nên thông minh hơn, Bengio nói.
"Chúng ta có muốn cạnh tranh với những thực thể thông minh hơn chúng ta không? Đó không phải là một canh bạc đáng yên tâm, phải không? Vì vậy, chúng ta phải hiểu làm thế nào mà sự tự bảo tồn có thể xuất hiện như một mục tiêu trong AI."
Đối với Tegmark của MIT, chìa khóa nằm ở cái gọi là "tool AI" (AI công cụ) - các hệ thống được tạo ra cho một mục đích cụ thể, được xác định rõ ràng, nhưng không cần phải là tác nhân. Tegmark cho biết một công cụ AI có thể là một hệ thống cho bạn biết cách chữa ung thư, hoặc một thứ gì đó có "một số quyền tự chủ" như một chiếc xe tự lái "nơi bạn có thể chứng minh hoặc có được một số đảm bảo thực sự cao, thực sự đáng tin cậy rằng bạn vẫn có thể kiểm soát nó."
"Tôi nghĩ, trên một lưu ý lạc quan ở đây, chúng ta có thể có gần như mọi thứ mà chúng ta hào hứng với AI... nếu chúng ta đơn giản là nhấn mạnh vào việc có một số tiêu chuẩn an toàn cơ bản trước khi mọi người có thể bán các hệ thống AI mạnh mẽ," Tegmark nói.
"Họ phải chứng minh rằng chúng ta có thể kiểm soát chúng. Sau đó, ngành công nghiệp sẽ đổi mới nhanh chóng để tìm ra cách làm điều đó tốt hơn."
Viện Tương lai của Sự sống của Tegmark vào năm 2023 đã kêu gọi tạm dừng phát triển các hệ thống AI có thể cạnh tranh với trí thông minh cấp độ con người. Mặc dù điều đó đã không xảy ra, Tegmark cho biết mọi người đang nói về chủ đề này, và bây giờ là lúc hành động để tìm ra cách đặt các rào cản để kiểm soát AGI.
"Vì vậy, ít nhất bây giờ rất nhiều người đang nói lý thuyết. Chúng ta phải xem liệu chúng ta có thể khiến họ thực hành hay không," Tegmark nói với "Beyond The Valley" của CNBC. "Rõ ràng là điên rồ khi chúng ta, con người, xây dựng một thứ gì đó thông minh hơn chúng ta trước khi chúng ta tìm ra cách kiểm soát nó."
Có nhiều quan điểm khác nhau về thời điểm AGI sẽ đến, một phần do các định nghĩa khác nhau. Giám đốc điều hành OpenAI Sam Altman cho biết công ty của ông biết cách xây dựng AGI và cho biết nó sẽ đến sớm hơn mọi người nghĩ, mặc dù ông đã hạ thấp tác động của công nghệ này. "Tôi đoán là chúng ta sẽ đạt được AGI sớm hơn hầu hết mọi người trên thế giới nghĩ và nó sẽ ít quan trọng hơn nhiều," Altman nói vào tháng 12.