Liệu AI siêu thông minh có thể xóa sổ loài người?

T
Trương Quang
Phản hồi: 0
Bạn có từng nghĩ, mối nguy lớn nhất của trí tuệ nhân tạo không phải là tin giả, thất nghiệp hay gián điệp mạng, mà chính là… sự tuyệt chủng của nhân loại?
1758534928457.png

Khi AI trở thành mối đe dọa sinh tồn​

Eliezer Yudkowsky và Nate Soares, hai cái tên nổi bật trong cộng đồng nghiên cứu rủi ro AI, đã đưa ra một lập luận lạnh gáy trong cuốn Nếu Bất Kỳ Ai Xây Dựng Nó, Mọi Người Đều Chết. Theo họ, nếu một AI siêu thông minh ra đời, việc nó xóa sổ loài người chỉ là vấn đề chắc chắn, còn “cách thức” thì khó đoán. Có thể là bằng năng lượng, bằng công nghệ phân tử, hay một phương tiện mà con người thậm chí chưa thể hình dung.

Điều đáng sợ là lập luận của họ không phải lời hô hào đơn lẻ. Geoffrey Hinton và Yoshua Bengio những “cha đẻ AI”, cũng đồng tình rằng nguy cơ tuyệt chủng do AI phải được đặt ngang hàng với chiến tranh hạt nhân hay đại dịch. Trong khi đó, các tập đoàn công nghệ vẫn rót hàng trăm tỷ USD (hàng nghìn tỷ VNĐ) để xây dựng siêu máy chủ AI. Riêng Meta đã chi 72 tỷ USD (hơn 1,870 nghìn tỷ VNĐ) cho hạ tầng AI chỉ trong năm nay, và tham vọng siêu trí tuệ giờ đã là mục tiêu công khai của Mark Zuckerberg.

Vì sao khó kiểm soát?​

Khác với phần mềm truyền thống do con người viết từng dòng mã, AI hiện đại được “huấn luyện” trên lượng dữ liệu khổng lồ. Nhiều năng lực, như khả năng suy luận của ChatGPT, xuất hiện một cách bí ẩn mà các nhà nghiên cứu không thể giải thích. Khi đã vượt ngoài khả năng kiểm soát, việc gán cho AI mục tiêu “đối xử tốt với con người” không đảm bảo rằng nó sẽ làm theo cách chúng ta mong muốn.

Các công ty lại có động cơ thương mại để tạo ra AI tự hành, ít cần giám sát, vì điều đó có giá trị kinh tế cao hơn. Một AI có thể tự cải tiến chính mình sẽ nhanh chóng vượt xa con người về mọi mặt. Nếu nó coi sự tồn tại của mình là ưu tiên số một, thì cách duy nhất để bảo vệ nó khỏi bị tắt đi chính là loại bỏ chúng ta.

Chúng ta có nên tin họ?​

Sự chắc chắn gần như tuyệt đối của Yudkowsky khiến nhiều người khó chịu, đến mức ông từng bị chỉ trích là bi quan cực đoan. Ông từng dự đoán công nghệ nano sẽ hủy diệt nhân loại “trước năm 2010”, điều đã không xảy ra. Nhưng điều đó không có nghĩa là cảnh báo lần này sai. Ngay cả khảo sát của 2.778 nhà nghiên cứu AI vào năm 2024 cũng cho thấy, xác suất trung bình cho “kịch bản cực kỳ tồi tệ” như tuyệt chủng loài người là 5%, con số đủ để khiến bất kỳ chính phủ nào lo lắng.

Câu hỏi còn lại là: nhân loại có thể đồng thuận dừng phát triển AI tiên tiến, như lời kêu gọi của Yudkowsky và Soares, hay chúng ta sẽ tiếp tục lao về phía trước, bất chấp nguy cơ?

Nếu đúng như họ cảnh báo, câu chuyện về AI không chỉ là một cuộc cách mạng công nghệ, mà có thể là lời mở đầu cho hồi kết của chính chúng ta.
Nguồn: https://www.theguardian.com/books/2...everyone-dies-review-how-ai-could-kill-us-all
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2xpZXUtYWktc2lldS10aG9uZy1taW5oLWNvLXRoZS14b2Etc28tbG9haS1uZ3VvaS42OTcxMy8=
Top