Tác giả "Sách giáo khoa AI chính thống" cảnh báo: GPT có thể sinh ra đa nhân cách, nguy cơ công nghệ siêu chiến tranh hạt nhân (I)

V
VNR Content
Phản hồi: 0
Stuart Russell là người sáng lập và là giáo sư khoa học máy tính của Trung tâm AI tương thích với con người tại Đại học California, Berkeley, và là "sách giáo khoa tiêu chuẩn" trong lĩnh vực trí tuệ nhân tạo "Artificial Intelligence: A Modern Approach". Ấn bản đầu tiên của cuốn sách này được hoàn thành vào đầu năm 1994, và có một chương với tựa đề "Điều gì sẽ xảy ra nếu chúng ta tạo ra nó", chủ yếu thảo luận về "Nếu chúng ta tạo ra hệ thống trí tuệ nhân tạo mạnh hơn con người, làm thế nào chúng ta có thể luôn làm chủ được chúng?”.
Tác giả Sách giáo khoa AI chính thống cảnh báo: GPT có thể sinh ra đa nhân cách, nguy cơ công nghệ siêu chiến tranh hạt nhân (I)
Vấn đề này không đáng báo động, số lượng thao tác cơ bản mà máy tính có thể thực hiện mỗi giây là khoảng 10 tỷ, trong khi bộ não con người về cơ bản chỉ có thể thực hiện khoảng 100 thao tác mỗi giây. Máy tính có thể giao tiếp nhanh hơn con người hàng tỷ lần. Nếu một ngày nào đó, chúng ta thực sự có thể khám phá những bí ẩn trong nhận thức của con người và áp đặt siêu tốc độ của máy tính, thì nền văn minh nhân loại sẽ lâm nguy.
Điều đáng sợ nhất là GPT-4 quả thực cho phép chúng ta nhìn thấy tia sáng của "trí thông minh", và con người chúng ta chưa có bất kỳ sự chuẩn bị nghiêm túc nào.
Những người có ảnh hưởng trong lĩnh vực trí tuệ nhân tạo đang đoàn kết kêu gọi phát triển trí tuệ nhân tạo hợp lý hơn và có lợi hơn cho con người Ba tuần trước, Stuart Russell, Geoffrey Hinton, Yoshua Bengio, và CEO OpenAI Sam Altman và những người khác đã đồng ký kết "Tuyên bố về rủi ro của trí tuệ nhân tạo", khuyến nghị rằng "giảm thiểu nguy cơ tuyệt chủng AI nên là ưu tiên toàn cầu". Vài tháng trước, Stuart Russell cùng với Elon Musk và những người khác đã ký vào bức thư ngỏ "Tạm ngừng nghiên cứu và phát triển trí tuệ nhân tạo khổng lồ ngoài GPT-4 trong 6 tháng".
1- Tại sao những người hiểu biết nhất về trí tuệ nhân tạo trên thế giới này lại cùng nhau cảnh báo về những rủi ro của trí tuệ nhân tạo nhiều lần? Liệu trận chiến khoa học viễn tưởng giữa con người và robot có thực sự trở thành hiện thực?
2- Tại sao những nhân vật có ảnh hưởng trong lĩnh vực trí tuệ nhân tạo chỉ trong một thời gian ngắn đã ký hai văn bản công khai để cảnh báo về rủi ro AI? Có gì khác biệt? Tại sao chính Giáo sư Russell lại ký cả hai tài liệu?
3- Tại sao CEO OpenAI Sam Altman chỉ ký tuyên bố rủi ro trí tuệ nhân tạo chứ không phải thư ngỏ đình chỉ nghiên cứu và phát triển trí tuệ nhân tạo khổng lồ?
4- Sau khi ký bức thư ngỏ, một công ty AI đã được thành lập ngay lập tức, động cơ của Musk không phải là trong sáng sao?
5- GPT-4 được đào tạo trên cơ sở một lượng lớn dữ liệu ngôn ngữ. Lộ trình kỹ thuật này có những rủi ro tiềm ẩn nào? Nó sẽ thực sự hủy diệt nhân loại?
6- Nhóm nghiên cứu của Microsoft đã nghiên cứu GPT-4 trong bốn tháng và xuất bản bài báo nổi tiếng "The Spark of General Artificial Intelligence". Họ biết bao nhiêu về cơ chế hoạt động của GPT-4?
Trên đây là nhóm các vấn đề đang bỏ ngỏ liên quan đến lĩnh vực trí tuệ nhân tạo đang sôi sùng sục, và giáo sư Stuart Russell đã phần nào giải đáp những câu hỏi đó trong một cuộc phỏng vấn với truyền thông Trung Quốc.
Sau đây là nội dung cuộc trò chuyện:
Tác giả Sách giáo khoa AI chính thống cảnh báo: GPT có thể sinh ra đa nhân cách, nguy cơ công nghệ siêu chiến tranh hạt nhân (I)
Q: Ông bắt đầu quan tâm đến trí tuệ nhân tạo từ khi nào vậy?
Russell: Tôi đã đọc rất nhiều truyện khoa học viễn tưởng khi còn nhỏ và tôi thường thấy những người máy thông minh trong tiểu thuyết. Tôi được tặng một chiếc máy tính có thể lập trình khi tôi 12 tuổi và tôi đã cố gắng lập trình nó, thật không may, chiếc máy tính này có rất ít bộ nhớ và tôi chỉ có thể viết các chương trình dài 36 ký tự, tức là khoảng thời gian mà tôi có thể đạt được “Smart" cách nhau quá xa. Nhưng lúc đầu tôi bị cuốn hút bởi thứ này. Sau đó, tôi học khoa học máy tính ở trường trung học, và đó là lúc tôi bắt đầu thử viết "chương trình cờ vua". Tuy nhiên, khi tôi học đại học, tôi đã nghiên cứu khoa học thần kinh, may mắn thay, sau đó tôi lại tìm được cơ hội để nghiên cứu về trí tuệ nhân tạo.
Q: Sau đó, ông đã viết cuốn sách giáo khoa "Trí tuệ nhân tạo: Cách tiếp cận hiện đại" được nhiều trường đại học nổi tiếng sử dụng. Nhưng ngay từ đầu năm 2016, ông đã bắt đầu nghiên cứu cách phát triển trí tuệ nhân tạo không gây hại cho con người, khi đó trí tuệ nhân tạo vẫn đang trong giai đoạn phát triển ban đầu, ông có nhìn thấy những rủi ro của trí tuệ nhân tạo sớm như vậy không?
Russell: Ấn bản đầu tiên của cuốn sách được thực hiện vào năm 1994, và có một phần ở cuối có tiêu đề Điều gì sẽ xảy ra nếu chúng ta làm được. Bởi vì mục tiêu của trí tuệ nhân tạo luôn là tạo ra những cỗ máy thông minh như con người hoặc thông minh hơn con người. Tôi nghĩ điều quan trọng là phải hỏi điều gì sẽ xảy ra nếu chúng ta thành công?
Vì vậy, ngay cả trong năm 1994, tôi đã thảo luận về những rủi ro có thể xảy ra. Làm thế nào chúng ta có thể đạt được thành công của trí tuệ nhân tạo mà không hủy diệt con người? Như bạn vừa đề cập, vào năm 2016, "Trung tâm AI tương thích với con người" được thành lập tại Berkeley. Kể từ đó, tôi bắt đầu khám phá cách tạo ra AGI (Trí tuệ tổng hợp nhân tạo) có lợi cho con người.
Đó là một câu hỏi có vẻ khá đơn giản: "Nếu chúng ta tạo ra các hệ thống trí tuệ nhân tạo mạnh hơn con người, làm thế nào để chúng ta kiểm soát chúng mãi mãi?" Tôi đã tìm kiếm câu trả lời và tôi nghĩ chúng ta đã có một số câu trả lời ban đầu . Như đã giải thích trong ấn bản thứ tư của cuốn sách, câu trả lời này có nghĩa là xây dựng lại hiểu biết của chúng ta về trí tuệ nhân tạo trên cơ sở mới và xây dựng lại tất cả các công nghệ mà chúng ta tạo ra. Vì vậy, đó là những gì chúng tôi đang làm bây giờ.
Q: Khoảng hai tuần trước, ông đã ký một tuyên bố về rủi ro của trí tuệ nhân tạo, khuyến nghị rằng "giảm thiểu nguy cơ tuyệt chủng trí tuệ nhân tạo nên trở thành ưu tiên toàn cầu, bên cạnh các rủi ro quy mô xã hội khác như dịch bệnh và chiến tranh hạt nhân." Tại sao ông ký tuyên bố này?
Russell: Tôi đã ký vì tôi nghĩ đó là một khả năng thực sự.
Q: Có liên quan đến GPT-4?
Russell: Không phải vì GPT-4, tuyên bố không đề cập đến GPT-4, tuyên bố chỉ nói rằng chúng ta cần quan tâm đến nguy cơ chúng ta sẽ mất kiểm soát nền văn minh. Con người có thể kiểm soát nhiều loài khác trên Trái đất vì con người thông minh hơn.
Nếu máy móc thông minh hơn chúng ta, tại sao chúng ta nghĩ rằng chúng ta sẽ có thể duy trì quyền kiểm soát nền văn minh của mình trong tương lai? Vì vậy, đó là rủi ro. Theo phân tích của nhiều nhà triết học, các nhà tương lai học, các chuyên gia nghiên cứu về tương lai lâu dài của nền văn minh chúng ta, họ tin rằng rủi ro này thực sự là rủi ro lớn nhất mà chúng ta phải đối mặt.
Chiến tranh hạt nhân sẽ là một thảm họa, nhưng hầu hết mọi người nghĩ rằng con người sẽ sống sót sau nó; biến đổi khí hậu lớn sẽ là một thảm họa, nhưng hầu hết mọi người nghĩ rằng con người sẽ sống sót sau nó. Nhưng có hai rủi ro mà chúng ta có thể không sống sót: một đại dịch rất dễ lây lan và gây chết người cho con người, và một hệ thống trí tuệ nhân tạo nằm ngoài tầm kiểm soát của chúng ta.
Q: Vài tháng trước, ông cùng với Max Tegmark, Elon Musk và những người khác đã kêu gọi lệnh cấm ngay lập tức việc đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 tháng. Tại sao bạn ủng hộ bức thư ngỏ này?
Russell: Đó là một câu hỏi rất thú vị. Như bạn đã nói, bức thư kêu gọi tạm dừng phát triển các mô hình ngôn ngữ lớn mạnh hơn GPT-4. Như vậy, nó không phải là lệnh cấm nghiên cứu AI như nhiều người đã mô tả. Có thể nói một cách hiệu quả rằng các hệ thống như GPT-4 hoặc mạnh hơn đã gây ra rủi ro đáng kể cho xã hội của chúng ta và chúng ta không có cách nào hiệu quả để quản lý nó.
Một người bạn của tôi làm việc cho chính phủ và tiêu chuẩn thực phẩm của Vương quốc Anh. Cô ấy chỉ ra rằng có nhiều quy định về bánh mì hơn là về trí tuệ nhân tạo.
Vì vậy, bức thư yêu cầu chúng tôi xác định loại tiêu chuẩn bảo mật nào mà hệ thống phải đáp ứng trước khi có thể phát hành, điều này giống như bánh sandwich. Nếu bạn không đáp ứng các tiêu chuẩn an toàn này, bạn không thể bán bánh mì, đơn giản như vậy. Và chúng ta chưa phát triển các tiêu chuẩn an toàn này cho các hệ thống AI và chúng tôi cần thời gian để làm điều đó.
Khi bạn đi ngược lại một số đề xuất về an toàn AI, chẳng hạn như Trung Quốc đề xuất rằng hệ thống nên đưa ra thông tin trung thực hoặc Châu Âu đề xuất rằng hệ thống không nên thao túng hành vi của con người, theo như chúng tôi biết. Các mô hình ngôn ngữ lớn sẽ không đáp ứng các tiêu chí này, vì vậy chúng không an toàn. Tôi nghĩ phản hồi chính xác từ cộng đồng AI không phải là phàn nàn "Điều đó không công bằng. Chúng tôi có thể phát hành hệ thống ngay cả khi chúng không an toàn". Hãy cố gắng làm cho chúng an toàn. Để chúng có thể được xuất bản". Đó là mục đích của bức thư ngỏ.
Còn tiếp
 


Đăng nhập một lần thảo luận tẹt ga
Top