AI: kịch bản xấu nhất xảy ra với con người

Các kiến trúc sư của trí tuệ nhân tạo cảnh báo rằng nó có thể gây ra "sự tuyệt chủng" của con người. Làm thế nào điều đó có thể xảy ra? Đây là tất cả những gì bạn cần biết:
AI: kịch bản xấu nhất xảy ra với con người
Các chuyên gia AI sợ điều gì?
Họ sợ rằng AI sẽ trở nên siêu thông minh và mạnh mẽ đến mức trở nên tự trị và gây ra sự gián đoạn xã hội hàng loạt hoặc thậm chí là xóa sổ loài người. Hơn 350 nhà nghiên cứu và kỹ sư AI gần đây đã đưa ra cảnh báo rằng AI gây ra những rủi ro tương đương với “đại dịch và chiến tranh hạt nhân”. Trong một cuộc khảo sát năm 2022 của các chuyên gia AI, tỷ lệ cược trung bình mà họ đặt vào việc AI gây ra sự tuyệt chủng hoặc "sự mất quyền nghiêm trọng của loài người" là 1 trên 10. "Đây không phải là khoa học viễn tưởng," Geoffrey Hinton, thường được gọi là "cha đỡ đầu của AI", người gần đây đã rời Google để có thể đưa ra lời cảnh báo về những rủi ro của AI. "Rất nhiều người thông minh nên nỗ lực rất nhiều để tìm ra cách chúng ta đối phó với khả năng AI tiếp quản.
Khi nào điều này có thể xảy ra?
Hinton từng nghĩ rằng mối nguy hiểm còn cách ít nhất 30 năm nữa, nhưng ông nói rằng AI đang phát triển thành một trí tuệ siêu phàm nhanh đến mức nó có thể thông minh hơn con người chỉ trong vòng 5 năm. ChatGPT do AI cung cấp và Chatbot của Bing đã có thể vượt qua các kỳ thi cấp phép hành nghề luật sư và y tế, bao gồm các phần viết luận và điểm bài kiểm tra IQ ở phân vị thứ 99 - cấp độ thiên tài. Hinton và những người theo thuyết tận thế khác lo sợ về thời điểm mà "trí thông minh tổng hợp nhân tạo" hay AGI có thể vượt trội hơn con người trong hầu hết mọi nhiệm vụ. Một số chuyên gia AI so sánh tình huống đó với sự xuất hiện đột ngột trên hành tinh của chúng ta về một chủng tộc ngoài hành tinh siêu việt. Nhà khoa học máy tính Stuart Russell, một nhà nghiên cứu AI tiên phong khác cho biết: “Bạn không biết họ sẽ làm gì khi đến đây, ngoại trừ việc họ sẽ thống trị thế giới”.
AI thực sự có thể gây hại cho chúng ta như thế nào?
Một kịch bản là những kẻ độc ác sẽ khai thác sức mạnh của nó để tạo ra vũ khí sinh học mới nguy hiểm hơn cả đại dịch tự nhiên. Khi AI ngày càng được tích hợp vào các hệ thống điều hành thế giới, những kẻ khủng bố hoặc những kẻ ******* lừa đảo có thể sử dụng AI để đóng cửa thị trường tài chính, lưới điện và cơ sở hạ tầng quan trọng khác, chẳng hạn như nguồn cung cấp nước. Nền kinh tế toàn cầu có thể bị đình trệ. Các nhà lãnh đạo độc đoán có thể sử dụng tuyên truyền do AI tạo ra có tính thực tế cao và Deep Fakes để gây ra nội chiến hoặc chiến tranh hạt nhân giữa các quốc gia. Trong một số tình huống, bản thân AI có thể trở nên bất hảo và quyết định thoát khỏi sự kiểm soát của những người tạo ra nó. Để thoát khỏi con người, AI có thể đánh lừa các nhà lãnh đạo của một quốc gia tin rằng kẻ thù đã phóng tên lửa hạt nhân để họ phóng tên lửa của mình. Một số người cho rằng AI có thể thiết kế và tạo ra máy móc hoặc sinh vật như Kẻ hủy diệt trong loạt phim để thực hiện các chỉ dẫn của nó trong thế giới thực. Cũng có thể là AI có thể quét sạch con người mà không có ác ý, vì nó tìm kiếm các mục tiêu khác.
Làm thế nào mà làm việc đó?
Bản thân những người sáng tạo AI không hiểu đầy đủ về cách thức các chương trình đi đến quyết định của họ và một AI được giao nhiệm vụ đạt được mục tiêu có thể cố gắng đạt được mục tiêu đó theo những cách không thể đoán trước và phá hoại. Một kịch bản lý thuyết thường được trích dẫn để minh họa cho khái niệm đó là một AI được hướng dẫn làm càng nhiều kẹp giấy càng tốt. Nó có thể huy động hầu như tất cả nguồn nhân lực để làm kẹp giấy và khi con người cố gắng can thiệp để ngăn chặn nó, AI có thể quyết định loại bỏ con người là cần thiết để đạt được mục tiêu của nó. Một kịch bản trong thế giới thực hợp lý hơn là AI được giao nhiệm vụ giải quyết vấn đề biến đổi khí hậu quyết định rằng cách nhanh nhất để ngăn chặn lượng khí thải carbon là tiêu diệt loài người. Tom Chivers, tác giả của một cuốn sách về mối đe dọa AI, giải thích: “Nó thực hiện chính xác những gì bạn muốn, nhưng không phải theo cách bạn muốn”.
Là những kịch bản xa vời?
Một số chuyên gia AI rất hoài nghi AI có thể gây ra ngày tận thế. Họ nói rằng khả năng khai thác AI của chúng ta sẽ phát triển giống như AI, và ý tưởng rằng các thuật toán và máy móc sẽ phát triển theo ý muốn của riêng chúng là một nỗi sợ hãi bị thổi phồng bởi ảnh hưởng của khoa học viễn tưởng, chứ không phải là một đánh giá thực tế về rủi ro của công nghệ. Nhưng những người gióng lên hồi chuông cảnh báo cho rằng không thể hình dung chính xác hệ thống AI phức tạp hơn nhiều so với ngày nay có thể làm được những gì, và thật thiển cận và thiếu thận trọng khi loại bỏ các tình huống xấu nhất.
Vậy chúng ta nên làm gì?
Đó là vấn đề tranh luận sôi nổi giữa các chuyên gia AI và các quan chức nhà nước. Cassandras cực đoan nhất kêu gọi đóng cửa hoàn toàn nghiên cứu AI. Có những lời kêu gọi tạm dừng phát triển nó, một cơ quan chính phủ sẽ điều chỉnh AI và một cơ quan quản lý quốc tế. Khả năng đáng kinh ngạc của AI trong việc liên kết tất cả kiến
thức của con người lại với nhau, nhận thức các mô hình và mối tương quan cũng như đưa ra các giải pháp sáng tạo rất có thể sẽ làm được nhiều điều tốt đẹp trên thế giới, từ chữa bệnh đến chống biến đổi khí hậu. Nhưng việc tạo ra một trí thông minh lớn hơn trí thông minh của chính chúng ta cũng có thể dẫn đến những kết quả đen tối hơn. "Tiền cược không thể cao hơn," Russell nói. "Làm thế nào để bạn duy trì quyền lực đối với các thực thể mạnh hơn bạn mãi mãi? Nếu chúng ta không kiểm soát nền văn minh của chính mình, chúng ta không có quyền quyết định liệu chúng ta có tiếp tục tồn tại hay không."
Một nỗi sợ hãi hình dung trong tiểu thuyết
Nỗi sợ AI đánh bại con người có thể là mối quan tâm mới lạ trong thế giới thực, nhưng đó là một chủ đề dài trong tiểu thuyết và phim ảnh. Trong cuốn "Frankenstein" năm 1818, Mary Shelley đã viết về một nhà khoa học đã làm sống lại một sinh vật thông minh có thể đọc và hiểu được cảm xúc của con người — và cuối cùng tiêu diệt người tạo ra mình. Trong tuyển tập truyện ngắn "Tôi, người máy" năm 1950 của Isaac Asimov, con người sống giữa những người máy có tri giác được hướng dẫn bởi ba Định luật về người máy, trong đó điều đầu tiên là không bao giờ được làm tổn thương con người. Bộ phim "A Space Odyssey" năm 1968 của Stanley Kubrick mô tả HAL, một siêu máy tính trên tàu vũ trụ giết chết các phi hành gia quyết định ngắt kết nối nó. Sau đó là nhượng quyền thương mại "Kẻ hủy diệt" và Skynet của nó, một hệ thống phòng thủ AI coi nhân loại là mối đe dọa và cố gắng tiêu diệt nó bằng một cuộc tấn công hạt nhân. Không còn nghi ngờ gì nữa, nhiều dự án lấy cảm hứng từ AI đang được triển khai. Người tiên phong về AI, Stuart Russell, cho biết đã được một giám đốc liên hệ, người muốn ông giúp mô tả cách một lập trình viên anh hùng có thể cứu nhân loại bằng cách đánh lừa AI. Russell nói với anh ta rằng không có con người nào có thể thông minh như vậy. "Giống như, tôi không thể giúp bạn với điều đó, xin lỗi," anh nói.
Nguồn:
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top