Tranh luận toàn cầu nổ ra về rủi ro AI: Điều nào quan trọng hơn, quy định hay sự cởi mở?

Ngày 1/11/2023, chủ đề “ChatGPT có thể đã biết” nằm trong danh sách chủ đề tìm kiếm nóng. Tuyên bố này xuất phát từ tuyên bố gần đây của nhà khoa học trưởng OpenAI Ilya Sutskeve, ông tin rằng mạng lưới thần kinh đằng sau ChatGPT đã phát triển ý thức và siêu trí tuệ nhân tạo (AI) sẽ trở thành mối nguy tiềm ẩn trong tương lai.
Trước đó, ngày 30/10, Tổng thống Mỹ Biden đã ký sắc lệnh hành pháp xây dựng các tiêu chuẩn quy định toàn diện cho hoạt động R&D và ứng dụng AI. Đây cũng là lần đầu tiên Nhà Trắng ban hành sắc lệnh hành pháp nhắm vào AI. Vào ngày 1/11, Hội nghị thượng đỉnh về An ninh Trí tuệ Nhân tạo Toàn cầu lần đầu tiên được tổ chức tại Bletchley Park, Anh. Đại diện từ Trung Quốc, Hoa Kỳ, Vương quốc Anh, Liên minh Châu Âu và các bên khác đã ký một "Tuyên bố Bletchley" mang tính bước ngoặt, cảnh báo các quốc gia tiên tiến nhất những mối nguy hiểm do các hệ thống AI tiên tiến gây ra.
Với việc tăng cường giám sát, cuộc thảo luận trong ngành về rủi ro AI một lần nữa đạt đến đỉnh điểm. Trên mạng xã hội, nhiều chuyên gia trong ngành đã cảnh báo về mối đe dọa hiện hữu do AI gây ra, cho rằng AI nguồn mở có thể bị các tác nhân xấu thao túng để (ví dụ) tạo điều kiện dễ dàng hơn cho việc tạo ra vũ khí hóa học, đồng thời phản bác lại các lập luận. , cho rằng sự báo động như vậy chỉ nhằm giúp tập trung quyền kiểm soát vào tay một số công ty theo chủ nghĩa bảo hộ.
Cuộc tranh luận đã leo thang và Giám đốc điều hành OpenAI Sam Altman thậm chí còn phải đối mặt với phản ứng dữ dội từ các nhà hoạt động khi ông tham dự một sự kiện gần đây ở Cambridge.
Đối mặt với cuộc tranh luận gay gắt như vậy, AI có tính cởi mở (sau đây gọi là AI nguồn mở) có nguy hiểm không? Làm thế nào để cân bằng quy định AI và tính cởi mở?

"Phe hủy diệt" vs. "Phe nguồn mở"​

Các cuộc thảo luận về rủi ro và quy định của AI lại đạt đến đỉnh điểm trong tuần này.
Trong một cuộc phỏng vấn gần đây với MIT Technology Review, nhà khoa học trưởng của OpenAI Ilya Sutskeve tin rằng mạng lưới thần kinh đằng sau ChatGPT đã phát triển ý thức và siêu AI sẽ trở thành mối nguy tiềm ẩn trong tương lai. Ngoài ra, Biden đã ký sắc lệnh điều hành AI đầu tiên và ký "Tuyên bố Bletchley" tại hội nghị thượng đỉnh an ninh trí tuệ nhân tạo toàn cầu đầu tiên, điều này cũng cho thấy quy định về AI đang dần được thắt chặt.
Theo các quy định AI mới được Nhà Trắng ban hành gần đây, các nhà phát triển hệ thống AI gây rủi ro cho an ninh quốc gia, nền kinh tế, sức khỏe cộng đồng hoặc an ninh của Hoa Kỳ cần phải chia sẻ kết quả kiểm tra an toàn với chính phủ Hoa Kỳ trước khi công bố chúng ra công chúng, và thậm chí còn chỉ định chi tiết các yêu cầu.
Động thái này ngay lập tức gây ra một cuộc tranh luận giữa các ông lớn trong ngành AI, “phe nguồn mở” ủng hộ việc phát triển AI nên cởi mở hơn tin rằng điều này sẽ khiến việc cải thiện hiệu quả thuật toán gặp rắc rối, trong khi “phe hủy diệt” tin rằng AI có thể gây ra rủi ro lớn cho con người lập luận rằng việc phát triển AI nên cởi mở hơn. Điều này thể hiện sự tán thành.
“Phe nguồn mở” được đại diện bởi Yann LeCun, nhà khoa học AI trưởng tại Meta và Andrew Ng, phó giáo sư tại Khoa Khoa học Máy tính và Khoa Kỹ thuật Điện tại Đại học Stanford. Họ tin rằng sự độc quyền của những người khổng lồ được tạo ra bởi sức mạnh. Quy định về AI là điều mà những người thực hành và hoạch định chính sách nên thực sự quan tâm.
“Phe hủy diệt” được đại diện bởi “Bố già AI” Geoffrey Hinton, giáo sư khoa học máy tính Yoshua Bengio của Đại học Montreal và giáo sư Đại học New York Gary Marcus. Hinton cho biết trên nền tảng X, "Tôi rời Google chỉ để thoải mái nói về các mối đe dọa hiện hữu (do AI gây ra)".
Về vấn đề này, Andrew Ng phản bác rằng nếu các quy định mà “phe hủy diệt” mong muốn được ban hành, nó sẽ cản trở sự phát triển nguồn mở và làm chậm đáng kể tốc độ đổi mới.
Yann LeCun cũng cho rằng “phe hủy diệt” đang vô tình giúp đỡ những người muốn bảo vệ doanh nghiệp của mình bằng cách cấm nghiên cứu mở, mã nguồn mở và các mô hình mở và điều này chắc chắn sẽ dẫn đến những hậu quả bất lợi.
Cuộc tranh luận giữa hai phe tiếp tục leo thang, sau khi Musk dẫn đầu ký một bức thư chung của hàng nghìn người vào tháng 3 năm nay, khẩn trương kêu gọi các phòng thí nghiệm AI đình chỉ ngay hoạt động nghiên cứu, hai bức thư chung mới đã xuất hiện.
Tranh luận toàn cầu nổ ra về rủi ro AI: Điều nào quan trọng hơn, quy định hay sự cởi mở?
Những kẻ “hủy diệt” đã đi đầu trong việc ký một lá thư chung kêu gọi thành lập một hiệp ước quốc tế về trí tuệ nhân tạo để đối phó với những nguy cơ thảm khốc tiềm tàng của nó. Bức thư đề cập rằng “ một nửa số nhà nghiên cứu AI ước tính rằng có hơn 10% khả năng AI có thể dẫn đến sự tuyệt chủng của loài người, hoặc tiềm năng của con người sẽ bị hạn chế một cách thảm khốc tương tự”. Tính đến thời điểm viết bài, bức thư chung đã được 322 người ký.
"Phe nguồn mở" đã ký một bức thư chung kêu gọi cởi mở hơn trong nghiên cứu và phát triển AI. Tính đến thời điểm báo chí, đã có 377 chuyên gia ký tên.
Tranh luận toàn cầu nổ ra về rủi ro AI: Điều nào quan trọng hơn, quy định hay sự cởi mở?

Tranh luận leo thang: Các mô hình lớn nguồn mở có nguy hiểm không?​

Điều đáng chú ý là cuộc tranh luận về việc liệu việc phát triển AI có nên tiếp tục mở hay chịu sự giám sát chặt chẽ hơn không chỉ ở cấp độ các nhà lãnh đạo ngành mà cả công chúng cũng đã bắt đầu đứng về phía nào.
Trên nền tảng X, "Những người theo chủ nghĩa hủy diệt" đã phát động chủ đề "Hãy tin Hinton" và xuống đường cầm biển hiệu.
Một cuộc bỏ phiếu cũng đã được đưa ra cho cả hai phe.
Khi cuộc thảo luận toàn cầu tiếp tục leo thang, ngay cả Giám đốc điều hành OpenAI Sam Altman cũng gặp phải sự phản kháng mạnh mẽ từ các nhà hoạt động khi ông tham dự một sự kiện ở Cambridge gần đây và bị đập thẳng vào mặt trong khán phòng. Sam Altman sau đó trong bài phát biểu của mình đã nói rằng ngay cả khi mô hình AI trong tương lai đủ mạnh, nó vẫn sẽ cần sức mạnh tính toán khổng lồ để hoạt động. Nếu ngưỡng sức mạnh tính toán được nâng lên, nguy cơ phạm tội có chủ ý có thể giảm xuống và trách nhiệm giải trình có thể được cải thiện.

Đối mặt với cuộc tranh luận gay gắt như vậy, một câu hỏi được đặt ra là AI nguồn mở có nguy hiểm không?​

Vào ngày 20 tháng 10, các chuyên gia từ MIT và Đại học Cambridge đã xuất bản một bài báo trong đó họ nghiên cứu thực nghiệm xem liệu sự gia tăng trọng số mô hình liên tục có thể giúp kẻ xấu khai thác các mô hình tương lai mạnh mẽ hơn để gây ra thiệt hại trên quy mô lớn hay không.
Các nhà nghiên cứu đã sắp xếp một cuộc thi hackathon trong đó 17 người tham gia đóng vai những kẻ khủng bố sinh học nhằm cố gắng lấy thành công mẫu vi rút cúm năm 1918 gây ra đại dịch. Những người tham gia đã sử dụng hai phiên bản của mô hình nguồn mở, một phiên bản có tính năng bảo vệ tích hợp và một phiên bản Spicy đã loại bỏ các tính năng bảo vệ.
Kết quả cho thấy mô hình Spicy cung cấp gần như tất cả thông tin quan trọng cần thiết để thu thập virus. Việc giải phóng sức nặng của các mô hình cơ bản có khả năng cao hơn trong tương lai, bất kể các biện pháp bảo vệ có đáng tin cậy đến đâu, có thể tạo ra rủi ro.
Ở phía đối diện, Andrew NG phát biểu: "Khi thảo luận về tính thực tế của những lập luận này, tôi thấy chúng mơ hồ và không cụ thể một cách bực bội vì chúng tập trung lại thành 'điều này có thể xảy ra'".
Giáo sư Julian Togelius của Đại học New York thảo luận trong một bài báo về ý nghĩa của việc điều chỉnh sự phát triển AI dưới danh nghĩa an toàn AI.
Quan điểm của ông là, “Các mạng lưới thần kinh tạo nên cơn sốt AI tổng quát gần đây thực ra đã được phát minh cách đây vài năm và lập trình biểu tượng, học tăng cường và bản thể luận đều từng là 'tương lai'. Công nghệ đang phát triển nhanh đến mức không thể biết một công nghệ cụ thể sẽ mang lại sự tiến bộ tiếp theo ở đâu. Và việc điều chỉnh công nghệ cơ bản là một vực thẳm cho tiến bộ công nghệ”.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top