Hàng loạt ông lớn công nghệ đồng ý tạo công tắc "tắt nguồn" AI để ngăn chặn những rủi ro theo viễn cảnh "Kẻ hủy diệt"

Các công ty AI lớn nhất thế giới đang tự nguyện hợp tác với các chính phủ để giải quyết những nỗi lo ngại lớn nhất xung quanh công nghệ này và xoa dịu mối quan ngại rằng việc phát triển AI không được kiểm soát có thể dẫn đến kịch bản khoa học viễn tưởng nơi AI quay lưng lại với những người sáng tạo ra nó. Tuy nhiên, nếu không có các quy định pháp lý nghiêm ngặt củng cố cam kết về AI của các chính phủ, thì những cuộc thảo luận này sẽ chỉ đi đến một giới hạn nhất định.

1716430261842.jpeg

Vào ngày 22/5, 16 công ty AI có ảnh hưởng bao gồm Anthropic, Microsoft và OpenAI, 10 quốc gia và EU đã gặp nhau tại hội nghị thượng đỉnh ở Seoul để thiết lập các nguyên tắc xung quanh việc phát triển AI có trách nhiệm. Một trong những thành quả lớn của hội nghị thượng đỉnh diễn ra ngày hôm qua là các công ty AI tham dự đã đồng ý với việc triển khai một công tắc "tắt nguồn" (kill switch), hay chính sách mà theo đó họ sẽ dừng phát triển các mô hình AI tiên tiến nhất của mình nếu chúng vượt qua một số ngưỡng rủi ro nhất định. Tuy nhiên, vẫn chưa rõ hiệu quả thực sự của chính sách này như thế nào, vì nó không đề cập đến bất kỳ chính sách pháp lý thực tế nào đối với thỏa thuận, hoặc không xác định ngưỡng rủi ro cụ thể. Các công ty AI khác không tham dự, hoặc là đối thủ cạnh tranh với những công ty đồng ý về mặt tinh thần với các điều khoản, sẽ không bị ràng buộc bởi cam kết này.

"Trong trường hợp cực đoan, các tổ chức cam kết sẽ không phát triển hoặc triển khai một mô hình hoặc hệ thống AI nào nữa cả, nếu các biện pháp giảm thiểu rủi ro không thể được áp dụng để giữ cho rủi ro dưới ngưỡng cho phép", theo tài liệu chính sách mà các công ty AI, bao gồm Amazon, Google và Samsung, đã ký kết.

Hội nghị thượng đỉnh này là sự tiếp nối của Hội nghị thượng đỉnh An toàn AI Bletchley Park diễn ra vào tháng 10 năm ngoái, với sự tham gia của một nhóm các nhà phát triển AI tương tự và đã bị chỉ trích là "có ý nghĩa nhưng không có thực lực" do thiếu cam kết cụ thể, ngắn hạn để giữ an toàn cho loài người khỏi sự gia tăng của AI.

Sau hội nghị thượng đỉnh trước đó, một nhóm những người tham dự đã viết thư ngỏ chỉ trích việc diễn đàn thiếu quy định chính thức và vai trò quá lớn của các công ty AI trong việc thúc đẩy các quy định trong ngành của chính họ. "Kinh nghiệm cho thấy cách tốt nhất để giải quyết những tác hại này là các quy định bắt buộc, không phải các biện pháp tự điều chỉnh hoặc tự nguyện", bức thư nêu rõ.

1716430277437.jpeg

Lần đầu tiên trong khoa học viễn tưởng, và bây giờ là ngoài đời thực, các nhà văn và nhà nghiên cứu đã cảnh báo về những rủi ro của trí tuệ nhân tạo mạnh mẽ trong nhiều thập kỷ. Một trong những tài liệu tham khảo được công nhận nhiều nhất là "kịch bản Kẻ hủy diệt", lý thuyết cho rằng nếu không được kiểm soát, AI có thể trở nên mạnh mẽ hơn những người tạo ra nó và quay lưng chống lại “cha đẻ”.

"AI mang lại những cơ hội to lớn để biến đổi nền kinh tế và giải quyết những thách thức lớn nhất của nhân loại, nhưng rõ ràng rằng tiềm năng AI chỉ có thể được giải phóng nếu chúng ta có thể nắm bắt được những rủi ro do công nghệ phức tạp và phát triển nhanh chóng này đặt ra", Bộ trưởng Công nghệ Anh Quốc Michelle Donelan cho biết.

Bản thân các công ty AI cũng nhận thức rằng những sản phẩm tiên tiến nhất của họ đang đi vào vùng tối công nghệ và đạo đức chưa được khám phá. Giám đốc điều hành OpenAI, Sam Altman, đã nói rằng trí tuệ tổng hợp nhân tạo (AGI), mà ông định nghĩa là AI vượt quá trí thông minh của con người, sắp "xuất hiện" và đi kèm với những rủi ro.

1716430301009.jpeg

"AGI cũng đi kèm với rủi ro nghiêm trọng về sử dụng sai mục đích, tai nạn nghiêm trọng và gián đoạn xã hội", theo bài đăng trên blog của OpenAI. "Vì lợi ích của AGI quá lớn, chúng tôi không tin rằng có thể hoặc mong muốn xã hội ngừng phát triển của nó mãi mãi; thay vào đó, xã hội và các nhà phát triển AGI phải tìm ra cách để làm đúng."

#tắtnguồnAI #AIkillswitch #côngtắctắtAI

 


Đăng nhập một lần thảo luận tẹt ga
Top