Tại sao những bộ óc hàng đầu của AI nghĩ rằng nó có thể kết liễu loài người và làm thế nào chúng ta có thể ngăn chặn nó

Khoảng sáu tháng trước, ChatGPT đã được phát hành ra công chúng. Trong hai tháng, nó đã đạt con số đáng kinh ngạc là 100 triệu người dùng hoạt động hàng tháng. Ba tháng sau đó, ít nhất 1.000 nhà lãnh đạo công nghệ và chuyên gia AI đã kêu gọi tạm dừng phát triển các mô hình trí tuệ nhân tạo (AI) mạnh hơn GPT-4.
Tại sao những bộ óc hàng đầu của AI nghĩ rằng nó có thể kết liễu loài người và làm thế nào chúng ta có thể ngăn chặn nó
Giờ đây, một số trong những bộ óc hàng đầu đó - bao gồm cả hai cha đỡ đầu của nó, Yoshua Bengio và Geoffrey Hinton - đang nói rằng AI thậm chí có thể quét sạch loài người.
Cũng giống như bản thân công nghệ, cuộc trò chuyện xung quanh AI đã phát triển với tốc độ chóng mặt. Một năm trước, hầu hết mọi người chưa bao giờ nghe nói về mô hình ngôn ngữ lớn, AI vẫn được gọi là học máy và những nguy cơ tuyệt chủng mà chúng ta lo sợ là biến đổi khí hậu, chiến tranh hạt nhân, đại dịch và thiên tai.
Có đủ để lo lắng về hiện trạng. Ngày tận thế AI có nên thêm vào danh sách các yếu tố gây căng thẳng của bạn không?
Bengio nói với Global News, đề cập đến một mô hình AI giả định có thể suy luận thông qua bất kỳ nhiệm vụ nào mà con người có thể thực hiện: “Đúng vậy, một người Canada bình thường cần phải lo lắng về sự phát triển của trí tuệ nhân tạo tổng quát (AGI). “Bây giờ chúng ta không có AGI, nhưng chúng ta có thứ gì đó đang tiến gần đến nó.”
Nghiên cứu cơ bản của Bengio về học sâu đã giúp đặt nền móng cho công nghệ AI hiện đại của chúng tôi và điều đó đã giúp ông trở thành một trong những nhà khoa học máy tính được trích dẫn nhiều nhất trên thế giới.
Ông suy đoán rằng chúng ta có thể mất từ
vài năm đến một thập kỷ để phát triển AGI. Anh ấy nói một cách chắc chắn rằng công nghệ đang đến. Và một khi chúng ta tạo ra một mô hình AI tương đồng với trí thông minh của con người — không chỉ ở kiến thức chung mà còn ở khả năng suy luận và hiểu biết — thì sẽ không mất nhiều thời gian để nó vượt qua trí thông minh của chính chúng ta.
Nếu con người mất đi lợi thế là những sinh vật thông minh nhất trên Trái đất, thì “Làm thế nào để chúng ta tồn tại được?” Hinton đã từng hỏi trong một cuộc phỏng vấn với MIT Technology Review.
Nhưng không phải ai cũng đồng ý
Một số nhà phê bình cho rằng những người tiên đoán về AI đang cường điệu hóa tốc độ cải thiện của công nghệ này, đồng thời công khai miễn phí cho những gã khổng lồ công nghệ. Đặc biệt, họ nêu bật những tác hại hiện tại do AI gây ra và lo lắng rằng việc nói về sự tuyệt chủng của loài người sẽ làm sao nhãng những vấn đề chúng ta đang gặp phải trước mắt.
Chẳng hạn, Google vẫn chưa thể khắc phục sự cố với Google Lens đã gây ra tranh cãi vào năm 2015 khi xác định ảnh chụp người Da đen là khỉ đột. (Google Lens vẫn tránh dán nhãn bất cứ thứ gì là linh trưởng, tám năm sau, tờ New York Times đưa tin.) Chưa hết, chính phủ Pháp đủ tự tin vào tầm nhìn máy tính rằng họ có kế hoạch triển khai máy bay không người lái hỗ trợ AI để quét tìm hành vi đe dọa của đám đông tại Thế vận hội sắp tới.
Trình tạo hình ảnh và giọng nói AI đã được sử dụng để gieo rắc thông tin sai lệch, tạo nội dung khiêu *** không có sự đồng thuận và lừa đảo những người vô tình, trong số vô số vấn đề khác.
Bengio cảnh báo: “Xã hội cần có thời gian để thích nghi, cho dù đó là luật pháp hay hiệp ước quốc tế, hoặc thậm chí tệ hơn là phải suy nghĩ lại về hệ thống kinh tế và chính trị của chúng ta để giải quyết các rủi ro”.
Nếu chúng ta có thể bắt đầu cuộc trò chuyện ngay bây giờ về cách ngăn chặn một số vấn đề lớn nhất trong tương lai, Bengio nghĩ chúng ta nên làm như vậy.
Vì vậy, làm thế nào để chúng ta xây dựng một AI không quét sạch loài người? Làm cách nào để chúng ta có được sự đồng thuận toàn cầu về việc sử dụng AI một cách có trách nhiệm? Và làm thế nào để chúng ta ngăn chặn AI mà chúng ta đã có gây ra thảm họa?
Vấn đề số 1: AI lừa đảo
Về mặt lý thuyết, có một số cách mà AI có thể gây ra một sự kiện cấp độ tuyệt chủng và không phải tất cả chúng đều yêu cầu một AGI siêu thông minh. Nhưng bắt đầu từ trên xuống, kịch bản đáng sợ nhất nhưng cũng khó xảy ra nhất, là điều mà các nhà đạo đức AI gọi là “vấn đề kiểm soát” - ý tưởng rằng AI có thể trở nên lừa đảo và đe dọa loài người.
Về cốt lõi, nỗi sợ hãi này khiến con người mất đi lợi thế cạnh tranh ở đầu chuỗi thức ăn. Nếu chúng ta không còn là những người thông minh nhất và có năng lực nhất, liệu thời gian của chúng ta trên ghế lái đã hết?
Nhà đạo đức học AI và triết gia khoa học và công nghệ Karina Vold xây dựng vấn đề này bằng một phép loại suy gọi là “vấn đề khỉ đột”.
“Trong lịch sử tiến hóa, chúng ta thực sự rất giống khỉ đột. Chúng tôi chỉ thông minh hơn một chút. Giả sử chúng tôi có nhiều lợi thế cạnh tranh hơn một chút, nhưng như vậy là đủ. Biến thể nhỏ đó là đủ. Điều đó đặt chúng ta vào một vị trí mà bây giờ về cơ bản chúng ta quyết định điều gì sẽ xảy ra với khỉ đột. Chúng tôi quyết định xem chúng có sống không, có chết không, loài có kết thúc hay không, liệu nó có phù hợp với các giá trị của chúng tôi hay không.”
Rất may, sự tồn tại liên tục của khỉ đột phù hợp với các giá trị đa dạng sinh học của con người, cô ấy lưu ý, mặc dù chúng ta đã khiến một số lượng lớn các loài khác bị tuyệt chủng.
Vậy làm cách nào để giảm thiểu những rủi ro này? Kịch bản AGI ngoài tầm kiểm soát giả định trước hai điều - đó là AGI sẽ có một số quyền truy cập vào thế giới của chúng ta (giả sử trực tiếp chế tạo rô-bốt giết người hoặc truy cập internet và thuyết phục con người làm điều đó) và rằng nó có mục tiêu mà nó mong muốn. hành hình.
Giải pháp số 1: Các nhà khoa học AI
Đối với Bengio, cách an toàn nhất để xây dựng các hệ thống AI là mô hình hóa chúng theo các nhà khoa học vô tư, lý tưởng hóa. Họ sẽ không có quyền tiếp cận thế giới một cách tự chủ và sẽ không bị thúc đẩy bởi các mục tiêu; thay vào đó, họ sẽ tập trung vào việc trả lời các câu hỏi và xây dựng lý thuyết.
“Ý tưởng xây dựng những nhà khoa học này là cố gắng tận dụng lợi ích của AI, kiến
thức khoa học cho phép chúng ta chữa trị tất cả các loại vấn đề y tế và khắc phục các vấn đề trong môi trường của chúng ta, v.v., nhưng (AI sẽ) không thực sự làm được điều đó. chính nó. Thay vào đó, nó sẽ trả lời các câu hỏi từ các kỹ sư và nhà khoa học, những người sau đó sẽ sử dụng thông tin đó để thực hiện mọi việc. Và vì vậy sẽ luôn có một con người trong vòng lặp đưa ra quyết định đạo đức.”
Bengio lập luận rằng những hệ thống AI này sẽ không cần có mục tiêu, thậm chí chúng không cần phải có đặc quyền tìm kiếm tri thức. Và điều này đưa chúng ta đến vấn đề AI tạo ra các mục tiêu phụ không phù hợp với nhu cầu của con người.
“Các thuật toán để đào tạo các hệ thống AI như vậy hoàn toàn tập trung vào sự thật theo nghĩa xác suất. Họ không cố gắng làm hài lòng chúng tôi hoặc hành động theo cách cần phải phù hợp với nhu cầu của chúng tôi. Đầu ra của họ có thể được coi là đầu ra của các nhà khoa học lý tưởng, tức là các lý thuyết giải thích và câu trả lời cho các câu hỏi mà những lý thuyết này giúp làm sáng tỏ, làm tăng thêm hiểu biết của chúng ta về vũ trụ,” ông viết.
Xây dựng một AGI không tự chủ và không có mục tiêu về mặt lý thuyết là tốt và tốt, nhưng tất cả chỉ cần một quốc gia, một công ty hoặc thậm chí một người xây dựng một mô hình không tuân theo các quy tắc này cho kẻ lừa đảo AGI nguy hiểm để nuôi cái đầu xấu xí của nó một lần nữa.
Vấn đề số 2: Sự gián đoạn toàn cầu
Ý tưởng rằng sự phát triển của AI có thể diễn ra đủ nhanh và đủ mạnh để phá vỡ trật tự toàn cầu hiện tại là một cách rất có thể công nghệ này có thể dẫn đến thảm họa.
Và chúng tôi thậm chí không cần phát triển AGI cho kịch bản này.
Ví dụ: AI tập trung vào phạm vi hẹp được áp dụng cho hệ thống vũ khí tiên tiến hoặc được thiết kế để gây bất ổn cho các thể chế chính trị thông qua tuyên truyền và thông tin sai lệch có thể dẫn đến bi kịch và thiệt hại về người.
Bengio cảnh báo: “Có khả năng thương hiệu mô hình ngôn ngữ lớn hiện tại như GPT-4 có thể được sử dụng bởi những kẻ xấu trong cuộc bầu cử tiếp theo của Hoa Kỳ, chẳng hạn, để gây ảnh hưởng lớn đến cử tri”.
AI gây nguy hiểm cho trật tự toàn cầu vì “những tác động hạ nguồn của việc các công nghệ thực sự tiên tiến xuất hiện nhanh chóng trong môi trường chính trị không ổn định như môi trường chính trị toàn cầu hiện tại của chúng ta,” Vold giải thích.
Có những khuyến cáo cho các quốc gia và tập đoàn đặt sự an toàn của AI lên hàng đầu và hướng tới AI mạnh nhất có thể — và cùng với đó là lời hứa về quyền lực, tiền bạc và thị phần. Mặc dù các ông lớn công nghệ cho biết họ mời gọi các quy định về AI, nhưng họ vẫn đang đầu tư hàng tỷ đô la vào công nghệ ngay cả khi họ cũng cảnh báo về những rủi ro hiện hữu.
Giả sử một quốc gia tạo ra bước đột phá lớn về AI mà không quốc gia nào khác giải quyết được. Dễ dàng nhận thấy việc theo đuổi lợi ích quốc gia có thể khiến một quốc gia như vậy sử dụng công cụ mạnh mẽ của mình một cách phi đạo đức như thế nào.
Chúng ta đã thấy điều này xảy ra với việc tạo ra bom hạt nhân. Lần duy nhất bom nguyên tử được sử dụng cho dân thường là khi Hoa Kỳ là quốc gia duy nhất có khả năng chế tạo vũ khí hạt nhân. Khi vũ khí hạt nhân sinh sôi nảy nở sau Thế chiến thứ hai, động cơ sử dụng chúng giảm mạnh. Thực tế của sự hủy diệt được đảm bảo lẫn nhau đã giúp hồi sinh cán cân quyền lực toàn cầu.

Hy vọng của một số người tiên đoán về AI là một điều gì đó tương tự như hợp tác quốc tế về giải trừ vũ khí hạt nhân, và ví dụ, nhân bản con người, có thể diễn ra một lần nữa với sự đồng thuận về AI.
Giải pháp số 2: Xây dựng sự đồng thuận toàn cầu về AI
Vâng, không có câu trả lời rõ ràng ở đây. Nhưng đối với Gabriela Ramos, trợ lý tổng giám đốc về khoa học xã hội và nhân văn tại UNESCO, có lý do để lạc quan.
Ramos không tập trung vào các kịch bản diệt vong của AI bởi vì cô ấy “không thuộc thế giới dự đoán kết quả”.
“Tôi đang cố gắng sửa chữa những gì tôi thấy cần phải làm một cách cụ thể.”
Vào năm 2021, cô ấy đã giúp giám sát việc áp dụng công cụ toàn cầu đầu tiên để thúc đẩy sự phát triển AI có trách nhiệm. Tất cả 193 quốc gia thành viên đã bỏ phiếu thông qua các khuyến nghị của UNESCO về AI có đạo đức, trong đó đặt nhân quyền vào trung tâm của cuộc trò chuyện.
Tất nhiên, đây chỉ là những đề xuất và chúng không ràng buộc về mặt pháp lý. Nhưng nó báo hiệu sự sẵn sàng đồng thuận khi nói đến AI.
Và đối với Ramos, mặc dù các công ty chủ yếu thúc đẩy đổi mới AI, nhưng các chính phủ có trách nhiệm ngăn chặn họ hành xử tồi tệ.
“Nhiệm vụ chăm sóc là với các chính phủ, không phải với các công ty. Các công ty sẽ luôn tận dụng bất kỳ sơ hở nào, luôn luôn. Bản chất của họ là họ ở đó để tạo ra lợi nhuận. Và do đó, nếu bạn có một không gian không được quy định, họ sẽ sử dụng nó,” cô nói.
Liên minh Châu Âu đang thực hiện một bước để giải quyết vấn đề miền tây hoang dã AI bằng một hành động có thể trở thành khung pháp lý AI toàn diện nhất từ trước đến nay. Nếu được chấp thuận, bất kỳ công ty nào muốn triển khai hệ thống AI ở EU sẽ phải tuân theo nó, bất kể họ đặt trụ sở chính ở đâu — đây chỉ là một trong những cách mà các quy định đa phương, nhưng không hoàn toàn toàn cầu, vẫn có thể có một hiệu quả sâu rộng.
Một số ứng dụng AI hứa hẹn sẽ bị cấm hoàn toàn, chẳng hạn như hệ thống nhận dạng khuôn mặt thời gian thực trong chính sách công cộng và dự đoán. Các hệ thống AI có tác động cao khác như ChatGPT sẽ phải tiết lộ nội dung của chúng là do AI tạo ra và phân biệt giữa hình ảnh thực và hình ảnh được tạo.
Một điều khoản tương tự đã được thấy trong các quy định dự thảo bên ngoài Trung Quốc, yêu cầu các công ty gắn thẻ nội dung, video hoặc hình ảnh do AI tạo ra để người tiêu dùng có thể biết và được bảo vệ.
Một sự chồng chéo khác giữa các điều khoản dự thảo của EU và Trung Quốc là quy định loại dữ liệu nào có thể được sử dụng để đào tạo các mô hình AI này. Trong khi đó, Canada đã đưa ra Đạo luật Dữ liệu và Trí tuệ Nhân tạo vào năm 2022, mặc dù các quy định cụ thể vẫn chưa được công bố.
Rõ ràng là các quy định về AI nằm trong chương trình nghị sự của các cường quốc trên thế giới chứ không chỉ các nền dân chủ tự do phương Tây.
“Tôi nghĩ nhân loại có thể làm được,” Bengio nói. “Nếu chúng ta thấy rằng có nguy cơ tuyệt chủng đối với nhân loại, thì mọi người đều có thể thua cuộc. Không quan trọng bạn là người Trung Quốc hay người Nga hay người Mỹ hay người châu Âu hay bất cứ thứ gì. Tất cả chúng ta sẽ thua. Nhân loại sẽ thua cuộc và chúng ta có thể sẵn sàng ngồi vào những chiếc bàn đó và thậm chí thay đổi hệ thống chính trị của mình để tránh những điều này.”
Chúng ta sẽ ổn chứ?
Thật khó để nói mọi thứ sẽ diễn ra như thế nào, nhưng ngay cả những người như Bengio, người đang gióng lên hồi chuông cảnh báo về AI cũng nói rằng có lý do để hy vọng. Và trong khi anh ấy nói về mối nguy hiểm trong tương lai, anh ấy thực sự đang tìm kiếm giải pháp ngày hôm nay.
Một nỗi sợ nữa mà ông thảo luận là khả năng công nghệ AI siêu thông minh có thể trở nên dễ tiếp cận đến mức bất kỳ người nào cũng có thể tạo AGI của riêng mình và sử dụng nó để tàn phá. Vì điều này, Bengio đang kêu gọi tiếp cận toàn cầu với dịch vụ chăm sóc sức khỏe, chăm sóc sức khỏe tâm thần, giáo dục, v.v. để giải quyết sự bất ổn trong thế giới của chúng ta và ngăn chặn nguyên nhân gốc rễ của bạo lực.
Bengio lưu ý: “Chúng ta cần giảm thiểu đau khổ, tức giận, bất công, bệnh tật - bạn biết đấy, tất cả những thứ có thể dẫn con người đến những hành vi rất xấu. “Miễn là họ có thể sử dụng tay hoặc súng, điều đó không quá tệ. Nhưng nếu chúng có thể thổi bay một lục địa, hoặc thậm chí là toàn bộ loài, thì chúng ta cần suy nghĩ lại về cách chúng ta tổ chức xã hội.”
“Tôi không khẳng định mình có câu trả lời, nhưng tôi nghĩ điều quan trọng nhất là sẵn sàng thách thức hiện trạng.”
Mặc dù Vold đã ký bức thư ngỏ gần đây kêu gọi coi nguy cơ tuyệt chủng AI cũng nghiêm trọng như chiến tranh hạt nhân, nhưng cô ấy thực sự nghĩ rằng “nhiều khả năng mọi thứ sẽ ổn”.
“Khi chúng tôi nói về chiến tranh hạt nhân, thường thì lời hoa mỹ là thảm họa. Nhiều khả năng điều này sẽ không xảy ra, nhưng nó đang xem xét những kịch bản thảm khốc đó, thậm chí là những kịch bản tồn tại cũng khiến mọi người phải chấp nhận rủi ro một cách nghiêm túc,” cô lưu ý.
Cô ấy hy vọng rằng nếu xã hội và chính phủ thừa nhận những rủi ro hiện hữu, chúng ta sẽ thấy các quy định tốt hơn để giải quyết các mối quan tâm ngắn hạn hơn.
“Đó là một lý do tại sao tôi nghĩ rằng đây không phải là điều mà chúng ta nên bỏ qua. Đây có thể là tiếng kêu gọi tập hợp mà chúng ta thực sự cần.”
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top