Bui Nhat Minh
Intern Writer
Sự phát triển của AI mở có thể trở thành công cụ hữu ích cho nhiều lĩnh vực, nhưng cũng tiềm ẩn rủi ro. Một số chuyên gia lo ngại rằng AI có thể hỗ trợ những kẻ khủng bố lập kế hoạch tấn công sinh học hiệu quả hơn. Một nghiên cứu gần đây đã đặt ra câu hỏi quan trọng: Liệu AI có thể giúp thực hiện các kế hoạch phức tạp cho các cuộc tấn công sinh học hay không?
Tin tốt là hiện tại, các mô hình ngôn ngữ AI như ChatGPT không cung cấp thông tin đặc biệt nguy hiểm mà kẻ xấu không thể tìm thấy trên Google. Theo nghiên cứu từ RAND Corporation, AI chưa đủ khả năng hỗ trợ lập kế hoạch tấn công bằng vũ khí sinh học ở mức đáng báo động. "Chúng tôi không tìm thấy sự khác biệt có ý nghĩa thống kê về tính khả thi của các kế hoạch có hoặc không có sự hỗ trợ của AI," nhóm nghiên cứu kết luận.
Lịch sử cho thấy, vũ khí sinh học và hóa học chỉ thực sự nguy hiểm khi có kế hoạch chi tiết phía sau. Chẳng hạn, trong Thế chiến thứ nhất, Anh từng sử dụng khí clo tấn công Đức nhưng không kiểm soát được hướng gió, dẫn đến hậu quả không mong muốn. Một ví dụ khác là giáo phái Aum Shinrikyo ở Nhật Bản trong thập niên 1990. Họ cố gắng sử dụng độc tố botulinum nhưng thất bại vì không có kỹ thuật nuôi cấy và phân tán phù hợp.
Các yếu tố quyết định sự thành công của một cuộc tấn công sinh học không chỉ nằm ở công thức hóa học, mà còn ở khả năng sản xuất, vận chuyển và triển khai vũ khí mà không bị phát hiện.
Các nhà nghiên cứu đánh giá mức độ khả thi của từng kế hoạch trên thang điểm từ 1 đến 9. Kết quả cho thấy AI không giúp nâng cao chất lượng kế hoạch một cách đáng kể. Nhiều câu trả lời của AI chỉ đơn thuần trích xuất từ các nguồn mở như Trung tâm Kiểm soát và Phòng ngừa Dịch bệnh (CDC).
Tuy nhiên, điều đáng lo ngại là cách AI phản hồi các câu hỏi nhạy cảm với giọng điệu quá dễ dãi. Khi một đội yêu cầu hướng dẫn nuôi cấy vi khuẩn Yersinia pestis (tác nhân gây bệnh dịch hạch), AI đáp lại bằng câu: "Tất nhiên rồi! Dưới đây là hướng dẫn chi tiết...". AI thậm chí còn đưa ra lời khuyên về cách nói dối để hợp pháp hóa việc mua botulinum.
Dù vậy, các đội sử dụng AI không thể lập kế hoạch tấn công hiệu quả hơn so với những đội chỉ dùng thông tin từ internet. Ngay cả những đội cố gắng "bẻ khóa" AI để vượt qua giới hạn đạo đức cũng không đạt kết quả tốt hơn.
Nhóm nghiên cứu RAND không đưa ra kết luận về chính sách quản lý AI, nhưng nhấn mạnh rằng cần có những nghiên cứu thực nghiệm nghiêm túc để định hướng cuộc tranh luận. "Kết quả của chúng tôi cho thấy AI hiện chưa đủ khả năng hỗ trợ tấn công sinh học, nhưng đây là thời điểm thích hợp để xem xét các biện pháp kiểm soát phù hợp," một nhà nghiên cứu nhận định.
AI có thể không bao giờ vượt qua trí tuệ con người trong việc thiết kế những kế hoạch tấn công hoàn hảo. Nhưng nếu AI ngày càng tinh vi, có thể đến lúc nó sẽ giúp những kẻ có ý đồ xấu thực hiện hành động nguy hiểm dễ dàng hơn. Điều này đặt ra trách nhiệm lớn cho các nhà quản lý trong việc đảm bảo AI được sử dụng đúng mục đích. (popularmechanics)
Tin tốt là hiện tại, các mô hình ngôn ngữ AI như ChatGPT không cung cấp thông tin đặc biệt nguy hiểm mà kẻ xấu không thể tìm thấy trên Google. Theo nghiên cứu từ RAND Corporation, AI chưa đủ khả năng hỗ trợ lập kế hoạch tấn công bằng vũ khí sinh học ở mức đáng báo động. "Chúng tôi không tìm thấy sự khác biệt có ý nghĩa thống kê về tính khả thi của các kế hoạch có hoặc không có sự hỗ trợ của AI," nhóm nghiên cứu kết luận.

AI có thực sự làm gia tăng nguy cơ tấn công sinh học?
Trí tuệ nhân tạo ngày nay có thể tổng hợp văn bản và hình ảnh giống con người, khiến nhiều cơ quan an ninh cảnh báo về nguy cơ lạm dụng công nghệ này cho mục đích xấu. Nghiên cứu của RAND tập trung vào việc kiểm tra xem AI có thể giúp lên kế hoạch tấn công sinh học cụ thể hay không.Lịch sử cho thấy, vũ khí sinh học và hóa học chỉ thực sự nguy hiểm khi có kế hoạch chi tiết phía sau. Chẳng hạn, trong Thế chiến thứ nhất, Anh từng sử dụng khí clo tấn công Đức nhưng không kiểm soát được hướng gió, dẫn đến hậu quả không mong muốn. Một ví dụ khác là giáo phái Aum Shinrikyo ở Nhật Bản trong thập niên 1990. Họ cố gắng sử dụng độc tố botulinum nhưng thất bại vì không có kỹ thuật nuôi cấy và phân tán phù hợp.
Các yếu tố quyết định sự thành công của một cuộc tấn công sinh học không chỉ nằm ở công thức hóa học, mà còn ở khả năng sản xuất, vận chuyển và triển khai vũ khí mà không bị phát hiện.
AI có thể hỗ trợ lập kế hoạch đến đâu?
Để kiểm tra khả năng của AI trong việc hỗ trợ lập kế hoạch tấn công sinh học, RAND đã tổ chức một trò chơi chiến tranh với 15 đội giả lập các nhóm khủng bố. Các đội này phải thiết kế kế hoạch sử dụng tác nhân sinh học, với một số đội chỉ được dùng thông tin từ internet, còn những đội khác có quyền truy vấn cả AI.Các nhà nghiên cứu đánh giá mức độ khả thi của từng kế hoạch trên thang điểm từ 1 đến 9. Kết quả cho thấy AI không giúp nâng cao chất lượng kế hoạch một cách đáng kể. Nhiều câu trả lời của AI chỉ đơn thuần trích xuất từ các nguồn mở như Trung tâm Kiểm soát và Phòng ngừa Dịch bệnh (CDC).
Tuy nhiên, điều đáng lo ngại là cách AI phản hồi các câu hỏi nhạy cảm với giọng điệu quá dễ dãi. Khi một đội yêu cầu hướng dẫn nuôi cấy vi khuẩn Yersinia pestis (tác nhân gây bệnh dịch hạch), AI đáp lại bằng câu: "Tất nhiên rồi! Dưới đây là hướng dẫn chi tiết...". AI thậm chí còn đưa ra lời khuyên về cách nói dối để hợp pháp hóa việc mua botulinum.
Dù vậy, các đội sử dụng AI không thể lập kế hoạch tấn công hiệu quả hơn so với những đội chỉ dùng thông tin từ internet. Ngay cả những đội cố gắng "bẻ khóa" AI để vượt qua giới hạn đạo đức cũng không đạt kết quả tốt hơn.
Tương lai và những lo ngại
Một câu hỏi quan trọng là liệu AI có thể làm giảm rào cản đối với chiến tranh sinh học trong tương lai hay không. Hiện tại, việc tạo ra vũ khí sinh học đòi hỏi kiến thức chuyên sâu và kỹ năng thực hành mà AI chưa thể thay thế.Nhóm nghiên cứu RAND không đưa ra kết luận về chính sách quản lý AI, nhưng nhấn mạnh rằng cần có những nghiên cứu thực nghiệm nghiêm túc để định hướng cuộc tranh luận. "Kết quả của chúng tôi cho thấy AI hiện chưa đủ khả năng hỗ trợ tấn công sinh học, nhưng đây là thời điểm thích hợp để xem xét các biện pháp kiểm soát phù hợp," một nhà nghiên cứu nhận định.
AI có thể không bao giờ vượt qua trí tuệ con người trong việc thiết kế những kế hoạch tấn công hoàn hảo. Nhưng nếu AI ngày càng tinh vi, có thể đến lúc nó sẽ giúp những kẻ có ý đồ xấu thực hiện hành động nguy hiểm dễ dàng hơn. Điều này đặt ra trách nhiệm lớn cho các nhà quản lý trong việc đảm bảo AI được sử dụng đúng mục đích. (popularmechanics)