Thoại Viết Hoàng
Writer
Một cảnh trong phim "2001: A Space Odyssey". (MGM)
Ý tưởng về [COLOR=rgba(0,86,137,var(--tw-text-opacity))]trí tuệ nhân tạo[/COLOR] lật đổ loài người đã được nói đến trong [COLOR=rgba(0,86,137,var(--tw-text-opacity))]nhiều thập kỷ[/COLOR] – và các chương trình như ChatGPT [COLOR=rgba(0,86,137,var(--tw-text-opacity))]chỉ làm mới lại những lo ngại này[/COLOR].
Vậy khả năng chúng ta có thể kiểm soát siêu trí tuệ máy tính cấp cao là bao nhiêu? Các nhà khoa học trở lại vào năm 2021 đã xử lý các con số. Câu trả lời? Gần như chắc chắn là không.
Điều đáng chú ý là việc kiểm soát một siêu trí thông minh vượt xa tầm hiểu biết của con người sẽ yêu cầu mô phỏng siêu trí tuệ đó mà chúng ta có thể phân tích. Nhưng nếu chúng ta không thể hiểu nó, thì không thể tạo ra một mô phỏng như vậy.
Các quy tắc như 'không gây hại cho con người' không thể được đặt ra nếu chúng ta không hiểu loại kịch bản mà AI sẽ đưa ra, các tác giả của bài báo đề xuất. Khi một hệ thống máy tính đang hoạt động ở mức trên phạm vi của các lập trình viên của chúng tôi, chúng tôi không còn có thể đặt giới hạn nữa.
[COLOR=rgba(0,86,137,var(--tw-text-opacity))]Các nhà nghiên cứu đã viết[/COLOR] vào năm 2021: “Một siêu trí tuệ đặt ra một vấn đề khác về cơ bản so với những vấn đề thường được nghiên cứu dưới cái tên ‘đạo đức người máy’.
"Điều này là do siêu trí tuệ có nhiều mặt, và do đó có khả năng huy động nhiều nguồn lực khác nhau để đạt được các mục tiêu mà con người không thể hiểu được, chứ chưa nói đến việc kiểm soát được".
Một phần lý luận của nhóm xuất phát từ [COLOR=rgba(0,86,137,var(--tw-text-opacity))]bài toán tạm dừng[/COLOR] do Alan Turing đưa ra vào năm 1936. Bài toán tập trung vào việc biết liệu một chương trình máy tính có đưa ra kết luận và câu trả lời (vì vậy nó dừng lại) hay chỉ đơn giản là lặp đi lặp lại mãi mãi để cố gắng tìm một câu trả lời.
Như Turing đã chứng minh thông qua một số [COLOR=rgba(0,86,137,var(--tw-text-opacity))]phép toán thông minh[/COLOR] , trong khi chúng ta có thể biết điều đó đối với một số chương trình cụ thể, thì về mặt logic, không thể tìm ra cách cho phép chúng ta biết điều đó đối với mọi chương trình tiềm năng có thể được viết.
Điều đó đưa chúng ta trở lại với AI, ở trạng thái siêu thông minh có thể chứa mọi chương trình máy tính có thể có trong bộ nhớ của nó cùng một lúc.
Ví dụ, bất kỳ chương trình nào được viết ra để ngăn chặn AI làm hại con người và hủy diệt thế giới, có thể đưa ra kết luận (và dừng lại) hoặc không – về mặt toán học, chúng ta không thể hoàn toàn chắc chắn về mặt toán học, điều đó có nghĩa là không thể kiểm soát được.
[COLOR=rgba(0,86,137,var(--tw-text-opacity))]Nhà khoa học máy tính Iyad Rahwan[/COLOR] từ Viện Phát triển Con người Max-Planck ở Đức cho biết : “Thực tế, điều này làm cho thuật toán ngăn chặn không thể sử dụng được .
Các nhà nghiên cứu cho biết, giải pháp thay thế cho việc dạy cho AI một số đạo đức và yêu cầu nó không được phá hủy thế giới – điều mà không thuật toán nào có thể hoàn toàn chắc chắn thực hiện được – là hạn chế khả năng của siêu trí tuệ. Ví dụ, nó có thể bị cắt khỏi các phần của internet hoặc từ một số mạng nhất định.
Nghiên cứu năm 2021 cũng bác bỏ ý tưởng này, gợi ý rằng nó sẽ hạn chế phạm vi tiếp cận của [COLOR=rgba(0,86,137,var(--tw-text-opacity))]trí tuệ nhân tạo[/COLOR] – lập luận cho rằng nếu chúng ta không sử dụng nó để giải quyết các vấn đề ngoài phạm vi của con người, thì tại sao lại tạo ra nó?
Nếu chúng ta định thúc đẩy trí tuệ nhân tạo, chúng ta thậm chí có thể không biết khi nào một siêu trí tuệ nằm ngoài tầm kiểm soát của chúng ta xuất hiện, đó là sự khó hiểu của nó. Điều đó có nghĩa là chúng ta cần bắt đầu đặt ra một số [COLOR=rgba(0,86,137,var(--tw-text-opacity))]câu hỏi nghiêm túc[/COLOR] về hướng đi mà chúng ta đang đi.
Trên thực tế, [COLOR=rgba(0,86,137,var(--tw-text-opacity))]đầu năm nay,[/COLOR] những gã khổng lồ công nghệ bao gồm [COLOR=rgba(0,86,137,var(--tw-text-opacity))]Elon Musk[/COLOR] và đồng sáng lập Apple Steve Wozniak đã ký một bức thư ngỏ yêu cầu nhân loại tạm dừng nghiên cứu về trí tuệ nhân tạo trong ít nhất 6 tháng để có thể khám phá sự an toàn của nó.
"Các hệ thống AI với trí thông minh cạnh tranh với con người có thể gây ra rủi ro sâu sắc cho xã hội và nhân loại", bức [COLOR=rgba(0,86,137,var(--tw-text-opacity))]thư ngỏ[/COLOR] có tiêu đề "Tạm dừng các thí nghiệm AI khổng lồ" cho biết.
"Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được", nó nói.
Nghiên cứu được công bố trên Tạp chí Nghiên cứu Trí tuệ Nhân tạo vào tháng 1 năm 2021.
Một phiên bản của bài viết này được xuất bản lần đầu vào tháng 1 năm 2021. Kể từ đó, nó đã được cập nhật để phản ánh những tiến bộ của AI vào năm 2023.