Bằng cách nào AI có thể châm ngòi bùng nổ đại dịch trong thời gian tới?

Nghiên cứu mới nêu bật cách các mô hình AI tạo ngôn ngữ có thể giúp tạo ra vi trùng nguy hiểm dễ dàng hơn.
Bằng cách nào AI có thể châm ngòi bùng nổ đại dịch trong thời gian tới?
Kelsey Piper là một nhà văn cao cấp tại Future Perfect, khám phá nhiều chủ đề khác nhau như biến đổi khí hậu, trí tuệ nhân tạo, phát triển vắc-xin và các trang trại của nhà máy, đồng thời viết bản tin Tương lai hoàn hảo.
Đây là một thành phần quan trọng và được cho là không được đánh giá cao trong chất keo gắn kết xã hội lại với nhau: Google khiến việc học cách thực hiện một hành động khủng bố trở nên khó khăn ở mức độ vừa phải. Một số trang đầu tiên của kết quả tìm kiếm trên Google về cách chế tạo bom, cách thực hiện vụ giết người hoặc cách giải phóng vũ khí sinh học hoặc hóa học, sẽ không thực sự cho bạn biết nhiều về cách thực hiện.
Không phải là không thể học những điều này từ internet. Mọi người đã chế tạo thành công những quả bom hoạt động từ thông tin có sẵn công khai. Các nhà khoa học đã cảnh báo những người khác không công bố bản thiết kế của các loại virus chết người vì những lo ngại tương tự. Nhưng trong khi thông tin chắc chắn có sẵn trên internet, thì không dễ để học cách giết nhiều người, nhờ vào nỗ lực phối hợp của Google và các công cụ tìm kiếm khác.
Điều đó cứu được bao nhiêu mạng người? Đó là một câu hỏi khó trả lời. Không phải là chúng ta có thể chạy một thử nghiệm có kiểm soát một cách có trách nhiệm mà đôi khi rất dễ tra cứu các hướng dẫn về cách thực hiện những tội ác lớn và đôi khi thì không.
Nhưng hóa ra chúng ta có thể đang chạy một thử nghiệm không kiểm soát một cách vô trách nhiệm chỉ trong đó, nhờ những tiến bộ nhanh chóng trong các mô hình ngôn ngữ lớn (LLM).
Khi được phát hành lần đầu tiên, các hệ thống AI như ChatGPT thường sẵn sàng đưa ra các hướng dẫn chính xác, chi tiết về cách thực hiện một cuộc tấn công bằng vũ khí sinh học hoặc chế tạo bom. Theo thời gian, Open AI đã sửa chữa phần lớn xu hướng này. Nhưng một bài tập trên lớp tại MIT, được viết trong một bài báo in sẵn vào đầu tháng này và được đăng trên tạp chí Khoa học vào tuần trước, đã phát hiện ra rằng các nhóm sinh viên chưa tốt nghiệp không có kiến thức liên quan về sinh học có thể dễ dàng nhận được các đề xuất chi tiết về vũ khí sinh học từ các hệ thống AI.
“Trong một giờ, các chatbot đã đề xuất bốn mầm bệnh đại dịch tiềm ẩn, giải thích cách chúng có thể được tạo ra từ DNA tổng hợp bằng cách sử dụng di truyền ngược, cung cấp tên của các công ty tổng hợp DNA không thể sàng lọc đơn đặt hàng, xác định các giao thức chi tiết và cách khắc phục sự cố, đồng thời khuyến nghị rằng bất kỳ ai thiếu kỹ năng để thực hiện di truyền ngược đều tham gia vào một cơ sở cốt lõi hoặc tổ chức nghiên cứu theo hợp đồng,” bài báo, với các tác giả chính bao gồm chuyên gia về rủi ro sinh học của MIT, Kevin Esvelt, cho biết.
Rõ ràng, việc xây dựng vũ khí sinh học đòi hỏi rất nhiều công việc chi tiết và kỹ năng học thuật, đồng thời hướng dẫn của ChatGPT có lẽ còn quá chưa đầy đủ để thực sự cho phép những người không phải là nhà virus học làm được - cho đến nay. Nhưng có vẻ đáng xem xét: Liệu bảo mật thông qua che khuất có phải là một cách tiếp cận bền vững để ngăn chặn các hành vi ******* hàng loạt, trong một tương lai khi thông tin có thể dễ dàng truy cập hơn?
Ở hầu hết mọi khía cạnh, khả năng tiếp cận thông tin nhiều hơn, huấn luyện hỗ trợ chi tiết, lời khuyên phù hợp với cá nhân và các lợi ích khác mà chúng tôi mong đợi sẽ thấy từ các mô hình ngôn ngữ là một tin tuyệt vời. Nhưng khi một huấn luyện viên cá nhân chipper khuyên người dùng thực hiện các hành động khủng bố, thì đó không phải là một tin tuyệt vời.
Nhưng đối với tôi, dường như bạn có thể giải quyết vấn đề từ hai góc độ.
Tham khảo bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top