Sự nguy hiểm của AI mã nguồn mở

Các chuyên gia đang cảnh giác với mối đe dọa do các chương trình trí tuệ nhân tạo gây ra nếu chúng rơi vào tay ác nhân.
Trong thời kỳ đỉnh điểm của đại dịch Covid-19, một số quan chức Mỹ có thiện chí đã đưa ra một ý tưởng mới lạ: tại sao không đưa thông tin chi tiết về các mối đe dọa từ virus lây từ động vật sang người đã biết lên mạng để các nhà khoa học trên khắp thế giới có thể dự đoán những biến thể nào có thể xuất hiện tiếp theo? Và, hy vọng, tìm ra thuốc giải độc.
Về mặt lý thuyết, nó nghe có vẻ hấp dẫn. Covid đã chỉ ra cái giá phải trả của việc phớt lờ đại dịch. Nó cũng tiết lộ những bước đột phá đáng kinh ngạc có thể xảy ra khi các chính phủ cuối cùng dồn nguồn lực vào việc tìm kiếm vắc-xin với tốc độ chóng mặt.
Sự nguy hiểm của AI mã nguồn mở
Các đợt phong tỏa đã tiết lộ một điều khác: trong khi các nhà khoa học thường khó động não xem liệu họ có bị tách biệt về thể chất hay làm việc tại các tổ chức khác nhau hay không, thì trong thời gian phong tỏa, họ đã học cách tổ chức các cuộc họp trên các cuộc gọi video để kích hoạt đổi mới xuyên biên giới và xuyên biên giới. Vì vậy, một phần của sáng kiến Deep Vzn, một nhánh của Dự án Virome Toàn cầu, là một nền tảng vi-rút mã nguồn mở có thể châm ngòi cho việc động não toàn cầu, đặc biệt là ở các thị trường mới nổi thường không được tham gia các cuộc tranh luận như vậy.
Cho đến nay, rất cảm hứng. Nhưng khi Cơ quan Phát triển Quốc tế Hoa Kỳ (USAID) đưa ra ý tưởng Deep Vzn, một số nhà khoa học đã phát hiện ra một vấn đề: tiết lộ thông tin chi tiết về vi-rút trực tuyến có thể cho phép những kẻ xấu nhân rộng các căn bệnh chết người và khiến chúng trở nên tồi tệ hơn. “Việc muốn hiểu các mối đe dọa là điều tự nhiên. Nhưng… chúng tôi không nghiên cứu những con đường mới và dễ dàng hơn để [tạo] vũ khí hạt nhân; Kevin Esvelt, một chuyên gia công nghệ sinh học tại MIT, người đã giúp đi tiên phong trong dự án kỹ thuật bộ gen Crispr, đã tweet. Ông nói thêm: “Ngay cả khi việc xác định trước các loại virus gây đại dịch có thể cho phép chúng ta ngăn chặn tất cả các đại dịch tự nhiên, thì làm như vậy chắc chắn sẽ mang lại cho hàng chục nghìn cá nhân… khả năng gây ra nhiều đại dịch hơn”. Sau một loạt các khiếu nại, USAID đã bỏ qua khía cạnh nguồn mở của Deep Vzn. “Chúng tôi cực kỳ coi trọng vấn đề an toàn… và trong trường hợp này, với sự tham vấn của các đồng nghiệp trong Chính quyền và Quốc hội, chúng tôi đã bắt tay vào một quy trình xem xét toàn diện,” một phát ngôn viên cho biết, đồng thời lưu ý rằng: “Nghiên cứu thực địa này đã không được tiến hành”. Hai năm sau, điều này có vẻ như chỉ là một chú thích lịch sử. Không phải như vậy. Một số nhà quan sát lo ngại sự trở lại của “ nghiên cứu dự đoán ”.
Báo động gần đây đã vang lên trong Quốc hội về những rủi ro. Rộng rãi hơn, Deep Vzn đưa ra một số bài học bổ ích cho trí tuệ nhân tạo khi cuộc tranh luận xung quanh vấn đề đó ngày càng gay gắt. Thứ nhất, nó cho thấy tại sao chúng ta cần nhiều nhà khoa học tham gia vào chính trị và hoạch định chính sách hơn – và để họ làm việc với những người không phải là nhà khoa học. Điều này nghe có vẻ hiển nhiên.
Nhưng một chi tiết gây sốc về Quốc hội Mỹ là chỉ có một số ít thành viên được đào tạo về khoa học hoặc kỹ thuật, trái ngược hoàn toàn với các nước như Đức hoặc Trung Quốc. Điều tồi tệ hơn là một số người ngày càng trở nên thù địch với khoa học trong những năm gần đây. Cựu tổng thống Donald Trump là một trường hợp điển hình.
Vào năm 2016, một tổ chức chiến dịch có tên là Hành động 314 đã được thành lập để hỗ trợ các nhà khoa học muốn ứng cử vào các cơ quan công quyền. Nó đã đạt được một số thành công, khiến trang web của nó tuyên bố, “Năm 2018, chúng tôi đã đóng một vai trò quan trọng trong việc lật đổ Hạ viện Hoa Kỳ bằng cách bầu chín ứng cử viên khoa học lần đầu tiên”. Nó cũng sẽ hỗ trợ các ứng cử viên ủng hộ khoa học trong cuộc đua năm tới. Nhưng vẫn còn một chặng đường dài phía trước và với tốc độ phát triển nhanh chóng của công nghệ như AI, đó là nguyên nhân đáng báo động.
Bài học thứ hai là các nhà hoạch định chính sách cần xử lý ý tưởng về tính minh bạch một cách cẩn thận – không chỉ với mầm bệnh mà cả AI. Cho đến nay, một số chuyên gia AI phương Tây đã chọn xuất bản nghiên cứu tiên tiến của họ trên các nền tảng nguồn mở để thúc đẩy sự nghiệp khoa học và giành được nhiều giải thưởng.
Nhưng cũng giống như các chuyên gia công nghệ sinh học nhận ra rằng việc công bố chi tiết mầm bệnh có thể gặp rủi ro, thì các chuyên gia cũng đang cảnh giác với mối đe dọa do các công cụ AI gây ra nếu chúng rơi vào tay kẻ xấu. Vấn đề nan giải là việc giữ độc quyền nghiên cứu AI cũng làm nảy sinh các vấn đề xã hội lớn.
Các tổ chức có nguồn lực cần thiết cho nghiên cứu AI ở phương Tây hầu hết là các công ty Công nghệ lớn. Nhưng ít cử tri muốn để họ kiểm soát hoàn toàn nghiên cứu AI hoặc quyết định về thời điểm xuất bản nó. Điều đó dẫn đến bài học quan trọng thứ ba: những công dân có liên quan nên lên tiếng. Điều đó thật khó khăn, với sức mạnh của các công ty công nghệ và chính phủ. Nhưng Rob Reid, một nhà đầu tư công nghệ và podcaster, người đã giúp châm ngòi cho các cuộc phản đối về Deep Vzn, chỉ ra rằng chiến dịch của họ chủ yếu được thúc đẩy bởi “chỉ một nhóm [người Mỹ] bên ngoài có cuộc sống bận rộn”, những người cảm thấy bị thôi thúc và được trao quyền để gióng lên hồi chuông cảnh báo . “Điều này [cuộc biểu tình] không bao giờ có thể xảy ra ở một quốc gia *******,” ông nói thêm.
Thực vậy. Và nó cho thấy rằng chỉ vì công nghệ đang phát triển với tốc độ đáng kinh ngạc, chúng ta không cần phải khuất phục trước sự bất lực hoặc sự thiếu hiểu biết thụ động.
Bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top