Trí tuệ nhân tạo sẽ biến đổi quân đội như thế nào?

Mr. Macho

Writer
Trí tuệ nhân tạo (AI) đang có tác động sâu sắc đến quân đội trên toàn thế giới. AI được sử dụng để tự động hóa các nhiệm vụ, nâng cao khả năng ra quyết định và tăng cường khả năng sống sót của binh lính.
Năm 2002, một đội đặc nhiệm Mỹ đã thực hành đột kích một ngôi nhà an toàn. Đội âm thầm tiếp cận một tòa nhà hai tầng được xây dựng để huấn luyện quân sự, nơi một thủ lĩnh khủng bố hư cấu đang ẩn náu. Một người lính rón rén đến gần cửa sổ đang mở và ném vào một chiếc máy bay không người lái nhỏ do trí tuệ nhân tạo điều khiển. Máy bay không người lái AI bắt đầu bay tự động qua tòa nhà, từng phòng, truyền trực tiếp cảnh quay từ camera của nó đến máy tính bảng cầm tay của người chỉ huy bên ngoài. Chỉ trong vài phút, nhóm đã có đầy đủ nhận thức về tình huống bên trong tòa nhà. Nó biết phòng nào trống, phòng nào có người trong gia đình đang ngủ và mục tiêu chính ở đâu. Nhóm vào tòa nhà biết chính xác nơi cần đi, giảm thiểu rủi ro cho mỗi thành viên. Cuộc diễn tập đã thành công: nếu nó là sự thật thì đội đã tiêu diệt được thủ lĩnh khủng bố.
Trí tuệ nhân tạo sẽ biến đổi quân đội như thế nào?
Máy bay bốn cánh điều khiển bằng AI, được thiết kế bởi Shield AI (nơi tôi từng là cố vấn), kể từ đó đã được sử dụng trong các hoạt động trong thế giới thực. Đó chỉ là một trong nhiều cách mà AI đang bắt đầu định hình lại an ninh quốc gia Hoa Kỳ. Quân đội Hoa Kỳ đang sử dụng AI để tối ưu hóa mọi thứ, từ bảo trì thiết bị đến các quyết định về ngân sách. Các nhà phân tích tình báo đang dựa vào AI để quét nhanh hàng núi thông tin nhằm xác định các mẫu có liên quan giúp họ đưa ra phán đoán tốt hơn và đưa ra phán đoán nhanh hơn. Trong tương lai, người Mỹ có thể mong đợi AI cũng sẽ thay đổi cách Hoa Kỳ và các đối thủ chiến đấu trên chiến trường. Tóm lại, AI đã châm ngòi cho một cuộc cách mạng về an ninh - một cuộc cách mạng mới chỉ bắt đầu diễn ra.
Khi AI bùng nổ trong nhận thức của công chúng, một số nhà nghiên cứu lo lắng về sự nguy hiểm của AI nên đã kêu gọi tạm dừng phát triển. Nhưng việc ngăn chặn sự tiến bộ về AI của Mỹ là điều không thể: nền tảng toán học của AI rất phổ biến, các kỹ năng của con người để tạo ra các mô hình AI đã phát triển rộng rãi và các động lực nghiên cứu và phát triển AI - cả khả năng sáng tạo của con người và lợi ích thương mại - đều rất mạnh mẽ. Cố gắng ngăn chặn sự tiến bộ cũng sẽ là một sai lầm. Trung Quốc đang nỗ lực vượt qua Mỹ về AI , đặc biệt là về ứng dụng quân sự. Nếu thành công, Bắc Kinh sẽ sở hữu một quân đội hùng mạnh hơn nhiều, có khả năng tăng nhịp độ và hiệu quả các hoạt động của mình vượt xa những gì Mỹ có thể sánh kịp. Khả năng của Trung Quốc trong việc sử dụng chiến tranh mạng và điện tử chống lại các mạng lưới và cơ sở hạ tầng quan trọng của Mỹ cũng sẽ được tăng cường một cách nguy hiểm. Nói một cách đơn giản, Lầu Năm Góc cần tăng tốc – chứ không phải làm chậm – việc áp dụng AI có trách nhiệm. Nếu không, Washington có thể mất đi ưu thế quân sự đảm bảo lợi ích của Mỹ, an ninh của các đồng minh và đối tác cũng như trật tự quốc tế dựa trên luật lệ.
Tuy nhiên, tăng tốc thì nói dễ hơn làm. Hoa Kỳ có thể dẫn đầu thế giới về nghiên cứu và phát triển trí tuệ nhân tạo, nhưng chính phủ Hoa Kỳ vẫn gặp khó khăn trong việc áp dụng các công nghệ tiên tiến như AI với tốc độ và quy mô lớn. Nó không tuyển dụng đủ chuyên gia có chuyên môn kỹ thuật cần thiết để kiểm tra, đánh giá, mua sắm và quản lý các sản phẩm AI . Nó vẫn đang xây dựng cơ sở hạ tầng dữ liệu và máy tính cần thiết để hỗ trợ các mô hình AI lớn . Nó thiếu nguồn tài trợ linh hoạt cần thiết để nhanh chóng lấy các nguyên mẫu AI hứa hẹn nhất và mở rộng quy mô chúng trên khắp các cơ quan. Và họ vẫn chưa xây dựng các quy trình và nền tảng thử nghiệm, đánh giá cần thiết để đảm bảo rằng mọi AI được tích hợp vào hệ thống quân sự đều an toàn, bảo mật và đáng tin cậy. Khi AI đóng vai trò trong việc sử dụng vũ lực, tiêu chuẩn về an toàn và độ tin cậy phải duy trì ở mức rất cao.
Các chính trị gia và quan chức quốc phòng nhận thức được những vấn đề này. Các nhà lãnh đạo Quốc hội đang rất chú ý đến AI và họ đang thảo luận về cách họ có thể điều chỉnh ngành này mà vẫn giữ cho nó có khả năng cạnh tranh toàn cầu. Văn phòng Bộ trưởng Quốc phòng đã ban hành khung chính sách về AI để đẩy nhanh việc Bộ Quốc phòng áp dụng nó một cách có trách nhiệm và an toàn. Nỗ lực thiết yếu nhằm đồng thời thúc đẩy AI và đặt các rào chắn xung quanh việc sử dụng nó - những mục tiêu dường như đang gặp căng thẳng - đang được tiến hành.
Nhưng Quốc hội vẫn chưa hành động và việc triển khai khuôn khổ AI của Lầu Năm Góc vẫn đang trong quá trình hoàn thiện. Mặc dù việc thành lập Văn phòng Trưởng Văn phòng Trí tuệ Nhân tạo và Kỹ thuật số tại Bộ Quốc phòng là một cột mốc quan trọng, nhưng Quốc hội vẫn chưa cung cấp cho văn phòng này các nguồn lực cần thiết để thúc đẩy việc áp dụng AI có trách nhiệm trong toàn bộ cơ sở quốc phòng. Để đảm bảo các ứng dụng phòng thủ AI vừa an toàn vừa thành công, Lầu Năm Góc sẽ cần tăng cường hơn nữa các biện pháp bảo vệ AI , bổ sung nhân viên kỹ thuật mới và phát triển các cách mới để thử nghiệm và mua sắm AIMột người lính Mỹ đeo hệ thống hiển thị dữ liệu, Camp Pendleton, California, tháng 3 năm 2018. Thời gian là điều cốt yếu và rủi ro quá cao khiến Mỹ không thể tụt lại phía sau.

Ở ĐÂY VÀ BÂY GIỜ​

Ngay cả khi các chính sách và quy định vẫn đang được soạn thảo, AI đã và đang thay đổi nền an ninh của Hoa Kỳ. Ví dụ, Không quân Hoa Kỳ đang bắt đầu sử dụng AI để giúp phân bổ nguồn lực và dự đoán xem một quyết định đơn lẻ có thể định hình lại chương trình và ngân sách của họ như thế nào. Ví dụ: nếu các nhà lãnh đạo lực lượng không quân bổ sung thêm một phi đội F-35 khác, nền tảng phân bổ nguồn lực hỗ trợ AI của họ có thể ngay lập tức nêu bật không chỉ chi phí trực tiếp của quyết định mà còn ảnh hưởng của nó đối với nhân sự, căn cứ, tính sẵn có của máy bay và các lĩnh vực quan trọng khác.
Trí tuệ nhân tạo sẽ biến đổi quân đội như thế nào?
Một lính Mỹ đeo hệ thống hiển thị dữ liệu, Camp Pendleton, California, tháng 3 năm 2018
Tương tự, quân đội đang bắt đầu sử dụng các mô hình AI trong việc bảo trì các hệ thống vũ khí phức tạp, từ tàu chiến đến máy bay chiến đấu. Các chương trình A giờ đây có thể thu thập dữ liệu từ các cảm biến của nền tảng và dự đoán thời điểm cũng như loại hình bảo trì nào sẽ tối đa hóa tính sẵn sàng và tuổi thọ của nền tảng trong khi giảm thiểu chi phí.
Những hiểu biết sâu sắc về bảo trì này cực kỳ hữu ích và chúng chỉ là bước khởi đầu cho những gì AI dự đoán có thể thực hiện. Cộng đồng tình báo Hoa Kỳ và một số bộ chỉ huy chiến đấu của Hoa Kỳ – các bộ chỉ huy quân sự chung có trách nhiệm hoạt động cho một khu vực hoặc chức năng cụ thể – đang sử dụng AI để sàng lọc hàng loạt dữ liệu được phân loại và chưa được phân loại nhằm xác định các mô hình hành vi và dự báo các sự kiện quốc tế trong tương lai. Trong cộng đồng tình báo, AI đã giúp các nhà phân tích dự đoán trước cuộc xâm lược Ukraine của Nga nhiều tháng, cho phép Mỹ cảnh báo thế giới và phủ nhận yếu tố bất ngờ của Tổng thống Nga Vladimir Putin. Tại Bộ Tư lệnh Chiến lược Hoa Kỳ, AI do Rhombus Power (nơi tôi làm cố vấn) phát triển đang được sử dụng để giúp cảnh báo các quan chức về sự di chuyển của tên lửa mang đầu đạn hạt nhân mà trước đây thường trốn tránh sự phát hiện.
AI dự đoán cũng có thể giúp Washington hiểu rõ hơn về những gì các đối thủ tiềm năng của họ có thể đang nghĩ, đặc biệt là các nhà lãnh đạo ở Bắc Kinh. Không giống như trong thời kỳ đỉnh điểm của Chiến tranh Lạnh , khi có rất nhiều chuyên gia về việc ra quyết định của Liên Xô, Hoa Kỳ vẫn đang tìm hiểu cách lãnh đạo Trung Quốc chuyển chính sách thành các hành động cụ thể. Ví dụ, cộng đồng tình báo có thể phát triển một mô hình ngôn ngữ lớn có thể tiếp thu tất cả các bài viết và bài phát biểu có sẵn của các nhà lãnh đạo Trung Quốc, cũng như các báo cáo của tình báo Mỹ về những số liệu này, sau đó mô phỏng cách Chủ tịch Trung Quốc Tập Cận Bình có thể quyết định thực thi chính sách đã nêu. Các nhà phân tích có thể đặt ra những câu hỏi cụ thể cho mô hình - “Trong hoàn cảnh nào Chủ tịch Tập sẽ sẵn sàng sử dụng vũ lực chống lại Đài Loan?” - và dự đoán những phản ứng tiềm năng dựa trên lượng dữ liệu phong phú từ nhiều nguồn hơn bất kỳ con người nào có thể nhanh chóng tổng hợp được. Họ thậm chí có thể yêu cầu mô hình vạch ra cách một cuộc khủng hoảng có thể diễn ra và các quyết định khác nhau sẽ định hình kết quả như thế nào. Những hiểu biết sâu sắc thu được có thể hữu ích trong việc cung cấp thông tin cho các nhà phân tích và nhà hoạch định chính sách, miễn là các bộ đào tạo minh bạch (nghĩa là chúng trích dẫn các nguồn dữ liệu làm cơ sở cho các phán đoán quan trọng) và đáng tin cậy (không dễ xảy ra “ảo giác” - những suy luận không thể giải thích được do AI tạo ra).
Các sĩ quan tình báo đã sử dụng AI hàng ngày để sàng lọc hàng nghìn bức ảnh và video. Trước đây, các nhà phân tích phải xem hàng nghìn giờ video chuyển động hoàn chỉnh để tìm và gắn thẻ các đối tượng quan tâm, cho dù đó là nơi tập trung xe tăng hay tên lửa di động phân tán. Nhưng với AI , các nhà phát triển có thể đào tạo một mô hình để kiểm tra tất cả tài liệu này và chỉ xác định các đối tượng mà nhà phân tích đang tìm kiếm—thường chỉ trong vài giây hoặc vài phút. Nhà phân tích cũng có thể thiết lập mô hình AI để gửi cảnh báo bất cứ khi nào tìm thấy đối tượng quan tâm mới trong một khu vực địa lý nhất định. Những công cụ “thị giác máy tính” này cho phép các nhà phân tích dành nhiều thời gian hơn để làm những việc mà chỉ con người mới có thể làm: áp dụng chuyên môn và khả năng phán đoán của họ để đánh giá ý nghĩa và hàm ý của những gì AI phát hiện ra. Khi những mô hình này trở nên chính xác và đáng tin cậy hơn, chúng có khả năng giúp các chỉ huy trên thực địa của Mỹ đưa ra các quyết định tác chiến quan trọng nhanh hơn nhiều so với khả năng phản ứng của đối thủ, mang lại cho lực lượng Mỹ một lợi thế to lớn - thậm chí có thể mang tính quyết định.
AI cũng có thể hỗ trợ các hoạt động quân sự theo những cách khác. Ví dụ: nếu kẻ thù gây nhiễu hoặc tấn công các mạng chỉ huy, kiểm soát và liên lạc của Hoa Kỳ, AI có thể kích hoạt tác nhân định tuyến và chuyển mạch thông minh để chuyển hướng luồng thông tin giữa các cảm biến, người ra quyết định và người bắn để đảm bảo họ ở lại. được kết nối và có thể duy trì nhận thức tình huống. Sở hữu những khả năng này sẽ rất quan trọng để đảm bảo rằng Washington và các đồng minh có thể đưa ra quyết định tốt hơn nhanh hơn đối thủ của họ, ngay cả trong chiến đấu dày đặc.
AI có thể giúp đỡ nhiều hơn nữa các lực lượng của Hoa Kỳ và đồng minh bằng cách tăng cường công việc của từng quân nhân trên chiến trường. Một số ứng dụng AI hiện đang được phát triển cho phép một người điều khiển duy nhất có thể điều khiển nhiều hệ thống không người lái, chẳng hạn như một đàn máy bay không người lái trên không, trên mặt nước hoặc dưới biển. Ví dụ, một phi công chiến đấu có thể sử dụng một đàn máy bay không người lái để gây nhầm lẫn hoặc áp đảo hệ thống phòng không và radar của đối phương. Chỉ huy tàu ngầm có thể sử dụng các phương tiện không người lái dưới biển để tiến hành trinh sát trong khu vực được phòng thủ nghiêm ngặt hoặc săn lùng mìn dưới biển đe dọa các tàu của Mỹ và đồng minh. Lầu Năm Góc gần đây đã công bố chương trình máy bay không người lái Replicator, hứa hẹn sẽ trang bị hàng nghìn hệ thống tự động nhỏ, thông minh, chi phí thấp, có thể sử dụng được trong vòng hai năm tới.
Trong cuộc xung đột với Trung Quốc về vấn đề Đài Loan, sự hợp tác giữa con người và máy móc này có thể rất quan trọng. Nếu Bắc Kinh quyết định dùng vũ lực để tuyên bố chủ quyền với hòn đảo này, Trung Quốc sẽ có lợi thế khi chiến đấu ở sân sau của mình, cho phép họ tập trung lực lượng một cách dễ dàng hơn. Trong khi đó, Hoa Kỳ sẽ gửi các đơn vị của mình đi xa và với số lượng ít hơn nhiều. Nếu quân đội Mỹ có thể tăng cường các phương tiện có người lái như máy bay chiến đấu, máy bay ném bom, tàu chiến và tàu ngầm với số lượng lớn các hệ thống không người lái tương đối rẻ, thì họ có thể bù đắp phần nào cho nhược điểm so sánh này và làm phức tạp đáng kể các hoạt động của quân đội Trung Quốc.

CHƠI ĐÚNG​

Tất nhiên, Bắc Kinh không có ý định nhường lại ưu thế công nghệ cho Washington. Họ đang nỗ lực phát triển các ứng dụng quân sự AI tiên tiến của riêng mình. Trung Quốc đang đầu tư mạnh vào nhiều trường hợp sử dụng AI giống như Hoa Kỳ - chẳng hạn như giám sát, nhận dạng mục tiêu và các đàn máy bay không người lái. Sự khác biệt là nó có thể không bị ràng buộc bởi những ràng buộc về mặt đạo đức giống như Hoa Kỳ và các đồng minh, đặc biệt là khi sử dụng các hệ thống vũ khí tự động hoàn toàn.
Trong cuộc đua giành ưu thế về công nghệ, Trung Quốc có một số lợi thế rõ ràng. Không giống như Washington, Bắc Kinh có thể ra lệnh cho các ưu tiên kinh tế của đất nước mình và phân bổ bất kỳ nguồn lực nào mà họ thấy cần thiết để đáp ứng các mục tiêu AI. Bởi vì Trung Quốc có chính sách “kết hợp dân sự và quân sự”, loại bỏ các rào cản giữa các lĩnh vực dân sự và quân sự, nên Quân đội Giải phóng Nhân dân có thể nhờ đến công việc của các chuyên gia và công ty Trung Quốc bất cứ khi nào họ muốn. Và đến năm 2025, Trung Quốc sẽ đào tạo số lượng tiến sĩ gần gấp đôi các ứng cử viên trong lĩnh vực khoa học, công nghệ, kỹ thuật và toán học như Hoa Kỳ, làm tràn ngập nền kinh tế Trung Quốc với các nhà khoa học máy tính tài năng nói riêng.
Nhưng Hoa Kỳ có những thế mạnh riêng. Nền kinh tế dựa trên thị trường của đất nước và hệ thống chính trị cởi mở hơn mang lại cho các nhà phát triển cơ hội sáng tạo. Nó có hệ sinh thái đổi mới vô song ở Thung lũng Silicon, khu vực đô thị Austin, hành lang Xa lộ Massachusetts 128 và những nơi khác. Hoa Kỳ cũng có một hệ sinh thái vốn mạo hiểm và vốn cổ phần tư nhân sôi động, thu hút đầu tư trong nước và quốc tế không thể so sánh được. Đây là nơi đặt trụ sở của nhiều trường đại học hàng đầu thế giới, cho phép thu hút và giữ chân một số nhân tài công nghệ giỏi nhất thế giới. Quả thực, một nửa số công ty khởi nghiệp ở Thung lũng Silicon có ít nhất một người sáng lập là người nhập cư. Ngay cả trong số những người than thở về sự tiến bộ AI nhanh chóng của Trung Quốc, nếu có, rất ít người sẵn sàng đánh đổi bàn tay của Hoa Kỳ để lấy Trung Quốc. Nhưng hầu hết tất cả họ đều đồng ý rằng Hoa Kỳ cần phải chơi tốt hơn để giành chiến thắng.
Để làm được như vậy, Bộ Quốc phòng và cộng đồng tình báo sẽ phải đầu tư nhiều hơn vào việc đẩy nhanh việc áp dụng AI . Họ có thể bắt đầu bằng việc xây dựng các hệ thống cơ sở hạ tầng kỹ thuật số chung có chung tiêu chuẩn để đảm bảo khả năng tương tác. Cơ sở hạ tầng sẽ bao gồm các công nghệ và dịch vụ dựa trên đám mây; tiêu chuẩn dữ liệu chung; bộ dữ liệu được xác thực; quyền truy cập được chia sẻ vào ngăn xếp phần mềm an toàn; các công cụ phức tạp để thử nghiệm, đánh giá và xác nhận các mô hình AI ; và các giao diện lập trình ứng dụng bảo mật để kiểm soát ai có quyền truy cập vào thông tin nào ở các cấp độ phân loại khác nhau. Mục tiêu là cung cấp cho các nhà phát triển dữ liệu, thuật toán, công cụ và sức mạnh tính toán - hoặc sức mạnh tính toán tốc độ cao - mà họ cần để tạo, kiểm tra, xác thực và sử dụng các công cụ AI mới.
Tất nhiên, những công cụ đó sẽ chỉ hoạt động tốt khi có những người vận hành chúng và hiện tại, Bộ Quốc phòng không có lực lượng lao động thành thạo về kỹ thuật số. Rất ít nhân viên hiểu đủ về AI để quản lý việc sử dụng nó một cách hợp lý, kiểm tra và đánh giá các công cụ AI nhằm đảm bảo chúng đáp ứng các tiêu chuẩn “ AI có trách nhiệm” của Lầu Năm Góc hoặc để đánh giá mô hình AI nào đáp ứng tốt nhất nhu cầu của quân đội hoặc Bộ Quốc phòng - một trong những doanh nghiệp lớn nhất thế giới.
Để thu hút nhiều nhân tài AI hơn và tận dụng tốt hơn lực lượng lao động công nghệ hiện có, Bộ Quốc phòng sẽ cần cải thiện cách tuyển dụng và quản lý nhân viên có kỹ năng kỹ thuật số. Lầu Năm Góc có thể bắt đầu bằng cách làm theo lời khuyên của Ủy ban An ninh Quốc gia về AI và thành lập một quân đoàn kỹ thuật số (theo mô hình Quân y) để tổ chức, đào tạo và trang bị cho các kỹ thuật viên. Ngoài ra, tất cả các học viện nghĩa vụ quân sự hiện tại nên bắt đầu giảng dạy những kiến thức cơ bản về AI và Lầu Năm Góc cũng nên thành lập một học viện dịch vụ kỹ thuật số của Hoa Kỳ để giáo dục và đào tạo các nhà công nghệ dân sự đầy tham vọng, cung cấp cho họ một nền giáo dục đại học miễn phí để đổi lấy cam kết phục vụ. làm việc trong chính phủ ít nhất 5 năm sau khi tốt nghiệp. Cuối cùng, Bộ Quốc phòng nên thành lập một lực lượng dự bị kỹ thuật số trong đó các nhân viên công nghệ từ khắp nước Mỹ có thể tình nguyện phục vụ đất nước của họ, bán thời gian.
Tuy nhiên, Lầu Năm Góc sẽ không bao giờ có thể thu hút được nhiều chuyên gia AI như khu vực tư nhân. Do đó, cơ quan quốc phòng phải cải thiện cách tận dụng tài năng bên ngoài. Để bắt đầu, Bộ Quốc phòng nên tăng cường đối thoại với các công ty công nghệ và khoa khoa học máy tính của các trường đại học hàng đầu. Nó cũng sẽ giảm bớt một số rào cản lỗi thời đối với các công ty công nghệ làm ăn với chính phủ. Để làm như vậy, các quan chức quốc phòng phải suy nghĩ lại cách họ mua các sản phẩm và dịch vụ dựa trên phần mềm, bao gồm cả AI . Thay vì mất nhiều năm để phát triển một tập hợp cố định các yêu cầu rất cụ thể—như Bộ thực hiện khi mua sắm phần cứng quân sự—bộ nên nhanh chóng xác định các vấn đề cụ thể mà bộ đang cố gắng giải quyết và các tiêu chuẩn chung mà bất kỳ giải pháp đề xuất nào cũng phải đáp ứng và sau đó cho phép các công ty giải quyết. đưa ra các giải pháp trong quá trình đấu thầu cạnh tranh. Nó cũng phải đảm bảo rằng những người thực sự sử dụng các công cụ AI cụ thể có thể đưa ra phản hồi khi các mô hình đang được phát triển và thử nghiệm.
Trên thực tế, Lầu Năm Góc nên tạo ra con đường sự nghiệp dành riêng cho các chuyên gia mua lại muốn chuyên về AI và các công nghệ thương mại khác. Hầu hết lực lượng mua sắm hiện tại của Bộ Quốc phòng đều được đào tạo để mua các hệ thống vũ khí phức tạp, chẳng hạn như tàu ngầm, tên lửa và máy bay phản lực, đòi hỏi phải chú ý tỉ mỉ xem liệu các nhà thầu có đáp ứng các thông số kỹ thuật cứng nhắc, yêu cầu về chi phí và các mốc quan trọng theo lịch trình hay không. Kết quả là, hầu hết các chuyên gia này (có thể hiểu được) rất không thích rủi ro—họ không được đào tạo cũng như không được khuyến khích mua các công nghệ thương mại đang phát triển nhanh chóng hoặc phá vỡ chương trình mua lại kéo dài nhiều năm hiện có để tích hợp công nghệ mới hiệu quả hơn. Do đó, Lầu Năm Góc nên tạo ra một nhóm chuyên gia mua lại mới, những người được đào tạo đặc biệt để mua các loại hệ thống này. Cán bộ này nên được coi là Mũ nồi xanh của lực lượng mua lại và các thành viên của lực lượng này phải được khen thưởng và thăng chức dựa trên khả năng cung cấp nhanh chóng và mở rộng quy mô các công nghệ thương mại cần thiết, chẳng hạn như AI.
Mặc dù những cải cách nội bộ sẽ giúp Lầu Năm Góc đẩy nhanh tiến độ, nhưng các quan chức quốc phòng cũng sẽ cần sự hỗ trợ lâu dài của quốc hội để theo kịp các đối tác Trung Quốc. Để đạt được mục tiêu đó, Quốc hội nên cấp cho Bộ Quốc phòng nguồn tài trợ linh hoạt hơn để cho phép Bộ quản lý tối ưu các chương trình AI . Hầu hết các khoản phân bổ của Lầu Năm Góc đều cố định: khi Quốc hội tài trợ cho một chương trình, Bộ không thể đơn giản chuyển tiền sang thứ khác. Nhưng AI đang phát triển quá nhanh và theo nhiều hướng khác nhau, đến nỗi các quan chức quốc phòng cần nhiều cơ quan lập trình lại hơn và nguồn tài trợ linh hoạt hơn để họ có thể nhanh chóng chuyển tiền ra khỏi các dự án kém hiệu quả và tái đầu tư vào những dự án có triển vọng hơn, đưa ra thông báo thích hợp cho Quốc hội. Cách tiếp cận này rất quan trọng để cho phép Lầu Năm Góc áp dụng AI với tốc độ và sự linh hoạt hơn.
Quốc hội nên đồng thời cung cấp cho Giám đốc Văn phòng Trí tuệ Nhân tạo và Kỹ thuật số một khoản tài trợ cầu nối để giúp các dự án thí điểm AI đầy hứa hẹn vượt qua cái gọi là thung lũng tử thần - giai đoạn khó khăn giữa khi một dự án chứng tỏ thành công và khi bộ sẵn sàng biến nó thành một thử nghiệm đầy đủ. chương trình quy mô kỷ lục. Quân đội Hoa Kỳ đơn giản là không đủ khả năng để trì hoãn việc áp dụng một công cụ AI quan trọng xuất hiện vào năm 2023 cho đến ngân sách năm 2025 hoặc muộn hơn.
Hoa Kỳ cũng sẽ cần tiếp tục thu hút những nhân tài công nghệ tốt nhất trên thế giới, bao gồm cả việc cải cách các yếu tố trong hệ thống nhập cư của Hoa Kỳ. Các sinh viên và công nhân khoa học và công nghệ có thể muốn đến và ở lại Hoa Kỳ, nhưng các quy định nhập cư phức tạp khiến nhiều người trong số họ không thể làm được điều đó. Ví dụ, thị thực giáo dục không cho phép sinh viên nước ngoài ở lại Hoa Kỳ quá ba năm sau khi tốt nghiệp. Động lực dẫn đến là sai lầm: Các tổ chức của Hoa Kỳ đào tạo nhiều chuyên gia công nghệ giỏi nhất thế giới, chỉ để gửi họ đi. Nhiều người trong số họ là người Trung Quốc và đã trở về Trung Quốc.
Ngoài ra, Quốc hội áp đặt giới hạn đối với thị thực H-1B - loại thị thực mà Hoa Kỳ thường cấp nhất cho người lao động có tay nghề - có nghĩa là quốc gia này chỉ có thể tiếp nhận một tỷ lệ nhỏ người nộp đơn. Ví dụ: từ 758.994 đăng ký điện tử đủ điều kiện nhận được trong đợt xổ số H-1B năm 2023, chỉ có 110.791 người được chọn (hoặc ít hơn 15%). Nói tóm lại, Hoa Kỳ đang loại bỏ những tài năng nước ngoài rất cần thiết, những người sẵn sàng đóng góp một cách có ý nghĩa vào khả năng cạnh tranh của đất nước trong lĩnh vực AI và các công nghệ quan trọng khác.

‘LIỀU ĂN NHIỀU’​

AI là không thể thiếu đối với an ninh tương lai của Hoa Kỳ. Nhưng nó cũng tiềm ẩn những rủi ro lớn. A Tôi đã đẩy nhanh việc truyền bá thông tin sai lệch trực tuyến và tạo điều kiện cho sự phân biệt đối xử vô tình trong việc tuyển dụng. Các nhà khoa học máy tính đã lập luận rằng nó cũng có thể cho phép các cuộc tấn công mạng tự động ở “tốc độ máy”. Các nhà hóa học đã chỉ ra rằng AI có thể tổng hợp vũ khí hóa học và các nhà sinh học bày tỏ lo ngại rằng nó có thể được sử dụng để thiết kế các mầm bệnh hoặc vũ khí sinh học mới. Rủi ro nghiêm trọng đến mức ngay cả các nhà lãnh đạo ngành AI cũng phải bày tỏ sự cảnh giác. Vào tháng 5 năm 2023, người đứng đầu hầu hết các phòng thí nghiệm AI lớn của Hoa Kỳ đã ký một lá thư cảnh báo rằng các phát minh của họ có thể gây ra mối đe dọa hiện hữu cho nhân loại.
Thật vậy, an ninh quốc gia là lĩnh vực hoạt động của con người, nơi có những rủi ro sâu sắc nhất về AI . Ví dụ: mô hình A I có thể xác định nhầm người hoặc đồ vật là mục tiêu, dẫn đến cái chết và sự hủy diệt ngoài ý muốn trong xung đột. Các mô hình AI hộp đen - những mô hình mà lý luận của chúng không thể được hiểu hoặc giải thích thỏa đáng - có thể khiến các nhà hoạch định quân sự đưa ra những quyết định nguy hiểm. Rủi ro này sẽ nghiêm trọng nhất nếu AI được phát triển cho một tình huống này được áp dụng cho một tình huống khác mà không có đủ thử nghiệm và giám sát. Điều gì có thể hoàn toàn hợp lý và có trách nhiệm trong một tình huống có thể lại phi lý và nguy hiểm trong một tình huống khác.
Rủi ro không chỉ xuất phát từ các hệ thống được thiết kế kém hoặc sử dụng bất cẩn. Hoa Kỳ có thể khó tính trong việc phát triển và triển khai AI , chỉ để các đối thủ của họ tìm cách làm hỏng dữ liệu của Hoa Kỳ, khiến các hệ thống gặp trục trặc. Ví dụ: nếu kẻ thù có thể giả mạo công cụ thị giác máy tính hỗ trợ AI để nhắm mục tiêu vào phương tiện dân sự thay vì phương tiện quân sự, điều đó có thể khiến Hoa Kỳ vô tình làm hại dân thường trong khu vực xung đột, làm suy yếu uy tín và thẩm quyền đạo đức của Hoa Kỳ. Kẻ thù cũng có thể làm hỏng dữ liệu theo những cách làm giảm hiệu suất của hệ thống vũ khí hỗ trợ AI hoặc có thể khiến nó ngừng hoạt động.
Lầu Năm Góc nhận thức được những rủi ro này và vào tháng 2 năm 2020, họ đã ban hành một bộ nguyên tắc đạo đức chi phối cách sử dụng AI . Một nguyên tắc kêu gọi nhân viên của Bộ thực hiện phán đoán và quan tâm trong việc phát triển, triển khai và sử dụng các khả năng AI . Một người khác cho biết Bộ Quốc phòng sẽ cố gắng “giảm thiểu sự thiên vị ngoài ý muốn trong khả năng AI ”. Ý kiến thứ ba kêu gọi đảm bảo rằng tất cả AI đều được tạo ra và sử dụng theo những cách có thể hiểu và giải thích được – với dữ liệu và phương pháp minh bạch và có thể kiểm tra được. Và các nhà lãnh đạo quốc phòng đã chỉ đạo nhân viên của họ đảm bảo rằng các hệ thống AI được kiểm tra nghiêm ngặt về tính an toàn, bảo mật và hiệu quả của chúng; rằng hệ thống AI được chỉ định cho các mục đích sử dụng được xác định rõ ràng; và hệ thống AI có thể bị ngắt kết nối hoặc ngừng hoạt động nếu chúng biểu hiện hành vi ngoài ý muốn.
Đối với vũ khí tự động và bán tự động, Bộ Quốc phòng thậm chí còn ban hành hướng dẫn cụ thể hơn. Các nhà lãnh đạo Lầu Năm Góc đã chỉ đạo các chỉ huy và người vận hành sử dụng phán đoán cẩn thận đối với vũ khí hỗ trợ AI , bao gồm cả việc đảm bảo rằng những vũ khí này được sử dụng theo cách phù hợp với các thông số đào tạo của mô hình và với các quy tắc tham gia hoạt động mà AI đang được triển khai. Quy định của Bộ Quốc phòng cũng quy định người chỉ huy sử dụng AI phù hợp với luật chiến tranh. Ví dụ: bất kỳ vũ khí hỗ trợ AI nào cũng phải có khả năng phân biệt đối xử, có thể phân biệt giữa người tham chiến và người không chiến đấu trên chiến trường và có thể tránh cố tình nhắm mục tiêu vào người sau. Lầu Năm Góc cũng đã cấm sử dụng AI trong các hệ thống chỉ huy và kiểm soát hạt nhân của mình và kêu gọi các cường quốc hạt nhân khác cũng làm như vậy.
Trong giới lãnh đạo cộng đồng quốc phòng Hoa Kỳ, những quy tắc “AI có trách nhiệm” này đã đạt được sự đồng thuận lớn. Nhưng việc đưa chúng vào thực tế là một thách thức không hề nhỏ, đặc biệt là với quy mô bộ máy quốc phòng của Hoa Kỳ. Lầu Năm Góc đã bắt đầu quá trình này bằng cách thành lập một cơ quan quản trị cấp cao, bắt đầu thiết lập cơ sở hạ tầng dữ liệu và kỹ thuật số để hỗ trợ nhiều ứng dụng AI; xây dựng các khả năng kiểm tra, đánh giá và xác nhận cần thiết để đảm bảo tuân thủ các nguyên tắc AI của Bộ Quốc phòng ; và nâng cao nhận thức về AI trên toàn bộ phận. Quá trình thực hiện này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, khung chính sách cung cấp một cơ sở vững chắc để xây dựng.
Tuy nhiên, Lầu Năm Góc sẽ khôn ngoan hơn nếu tăng cường hơn nữa những hướng dẫn này. Ví dụ: các quan chức quốc phòng nên yêu cầu tất cả các nhà cung cấp AI cung cấp cho Bộ Quốc phòng sự minh bạch hoàn toàn về nguồn gốc dữ liệu họ sử dụng trong bộ đào tạo của mình. Ngoài ra, bộ phải đảm bảo rằng hành vi của bất kỳ mô hình AI nào mà bộ áp dụng đều có thể giải thích được (được người dùng và nhà phát triển hiểu đầy đủ) mà không cản trở sự đổi mới. Nó có thể làm như vậy bằng cách tăng cường cách kiểm tra, đánh giá và xác minh hệ thống. Bộ cũng nên mở rộng quy mô và mở rộng công việc được thực hiện bởi Cơ quan Dự án Nghiên cứu Quốc phòng Tiên tiến — một trong những cơ quan chịu trách nhiệm phát triển các công nghệ mới nổi cho quân đội — nhằm đảm bảo rằng các công cụ AI có thể giải thích được và chịu trách nhiệm theo thiết kế. Nói cách khác, các nguyên tắc đạo đức của bộ phải được coi là những đặc điểm bắt buộc hình thành nên cách thiết kế các mô hình AI quốc phòng ngay từ đầu.
Nhưng cộng đồng quốc phòng Hoa Kỳ sẽ không thể tăng tốc độ áp dụng AI trừ khi công chúng tin rằng họ sẽ sử dụng AI theo những cách hiệu quả, có trách nhiệm, có đạo đức và hợp pháp. Nếu không, lần đầu tiên một ứng dụng AI dẫn đến một quyết định rất tồi tệ hoặc gây ra những hậu quả nghiêm trọng ngoài ý muốn trên chiến trường, các chiến binh khó có thể tin tưởng nó và các nhà hoạch định chính sách cũng như nhà lập pháp có thể sẽ đình chỉ hoặc cấm sử dụng nó. Do đó, Bộ Quốc phòng phải tăng cường đầu tư vào nghiên cứu và phát triển an toàn và bảo mật AI . Nó phải minh bạch về những gì nó sẽ và sẽ không sử dụng AI để làm. Và Lầu Năm Góc nên cân nhắc yêu cầu các nhà cung cấp của mình đặt rào cản về cách họ phát triển AI . Ví dụ : nếu một công ty muốn cung cấp AI cho quân đội, Bộ Quốc phòng có thể yêu cầu công ty đó phải đáp ứng các tiêu chuẩn nghiêm ngặt về bảo vệ dữ liệu và an ninh mạng. Bằng cách đó, Lầu Năm Góc có thể giúp AI trở nên an toàn hơn, không chỉ cho lực lượng vũ trang mà còn cho tất cả mọi người.
Tất nhiên, Hoa Kỳ không thể tự mình đảm bảo rằng AI được phát triển và sử dụng một cách có trách nhiệm. Các quốc gia khác – bao gồm cả các đối thủ cạnh tranh – cũng sẽ phải áp dụng các rào cản và chuẩn mực chính sách. Thế giới đã thực hiện bước đi đầu tiên có giá trị khi vào tháng 11 năm 2021, 193 quốc gia đã thông qua một thỏa thuận toàn cầu về đạo đức của trí tuệ nhân tạo - thỏa thuận đầu tiên trên thế giới. Nó bao gồm nguyên tắc rằng các quốc gia phải đảm bảo sự giám sát của con người và cơ quan đối với tất cả AI.
Mặc dù thỏa thuận này là nền tảng quan trọng, nhưng Hoa Kỳ nên tìm địa điểm để thảo luận về AI với các đối thủ tiềm tàng của mình, đặc biệt là Trung Quốc, giống như việc nước này đã tìm cách đàm phán về vũ khí hạt nhân và các hình thức kiểm soát vũ khí khác với Liên Xô trong Chiến tranh Lạnh. . Để thành công, Washington cũng sẽ phải hợp tác chặt chẽ với các đồng minh và đối tác của mình để đảm bảo tất cả họ đều có cùng quan điểm. Các quốc gia đồng ý về một bộ quy tắc AI nên sẵn sàng đe dọa những người vi phạm với cái giá phải trả nặng nề, bao gồm các biện pháp trừng phạt kinh tế đa phương, trục xuất khỏi các diễn đàn quốc tế và hành động pháp lý để buộc thủ phạm phải chịu trách nhiệm bồi thường thiệt hại. Ví dụ, những người vi phạm các quy tắc về AI có thể bị truy tố tại tòa án liên bang Hoa Kỳ, giống như năm tin tặc Trung Quốc đã tiến hành các cuộc tấn công mạng vào các công ty Hoa Kỳ vào năm 2014. Các quốc gia vi phạm các quy tắc này có thể phải đối mặt với nguy cơ bị trả thù vì bất kỳ tổn hại nào đã gây ra - bao gồm, trong những trường hợp cực đoan, hành động quân sự.

CẦN TỐC ĐỘ CÓ TRÁCH NHIỆM​

Trong thế giới vi điện tử, các chuyên gia thường nói về định luật Moore: nguyên lý số lượng bóng bán dẫn trên chip tăng gấp đôi cứ sau hai năm, dẫn đến các thiết bị có khả năng hoạt động tốt hơn theo cấp số nhân. Luật này giúp giải thích sự gia tăng nhanh chóng của rất nhiều đổi mới công nghệ, bao gồm cả điện thoại thông minh và công cụ tìm kiếm.
Trong lĩnh vực an ninh quốc gia, sự tiến bộ của AI đã tạo ra một loại định luật Moore khác. Bất cứ quân đội nào đầu tiên làm chủ việc tổ chức, kết hợp và thể chế hóa việc sử dụng dữ liệu và AI vào hoạt động của mình trong những năm tới sẽ gặt hái được những tiến bộ theo cấp số nhân, mang lại cho họ những lợi thế vượt trội so với kẻ thù. Người đầu tiên áp dụng AI trên quy mô lớn có thể sẽ có chu kỳ ra quyết định nhanh hơn và có thông tin tốt hơn để làm căn cứ đưa ra quyết định. Mạng lưới của nó có khả năng phục hồi tốt hơn khi bị tấn công, duy trì khả năng duy trì nhận thức tình huống, bảo vệ lực lượng của mình, tấn công các mục tiêu một cách hiệu quả và bảo vệ tính toàn vẹn của lệnh chỉ huy, kiểm soát và liên lạc. Nó cũng sẽ có thể điều khiển các hệ thống không người lái trên không, trên mặt nước và dưới biển để gây nhầm lẫn và áp đảo đối thủ. Hoa Kỳ không thể để mình tụt lại phía sau.
Nhưng bộ máy an ninh quốc gia cũng không thể liều lĩnh được. Nếu không có biện pháp bảo vệ thích hợp, các mô hình AI có thể gây ra mọi tác hại ngoài ý muốn. Các hệ thống lừa đảo thậm chí có thể giết chết quân đội Hoa Kỳ hoặc thường dân không có vũ khí trong hoặc gần các khu vực chiến đấu. Do đó, Hoa Kỳ nhận thấy mình đang phải đối mặt với một câu hỏi hóc búa. Rủi ro của việc làm chậm AI là cao đến mức không thể chấp nhận được, nhưng rủi ro của việc chạy đua về phía trước mà không có biện pháp phòng ngừa cần thiết cũng cao đến mức không thể chấp nhận được.
Các nhà hoạch định chính sách Mỹ dường như hiểu được nghịch lý này. Các nhà lãnh đạo Quốc hội biết rằng nếu họ quản lý AI quá nặng tay, họ có thể khiến những nhà đổi mới AI giỏi nhất rời Hoa Kỳ để làm việc ở những nơi có ít hạn chế hơn và khi đó Hoa Kỳ sẽ tụt hậu so với các đối thủ cạnh tranh. Nhưng cả các nhà hoạch định chính sách của Đảng Dân chủ và Đảng Cộng hòa cũng biết rằng một số quy định và giám sát là cần thiết để đảm bảo rằng việc áp dụng AI là an toàn và có trách nhiệm. Hạ viện và Thượng viện đang tổ chức các phiên họp để giáo dục các thành viên và lên lịch điều trần để nhận lời khuyên từ các chuyên gia. Những nỗ lực nhằm xây dựng sự đồng thuận lưỡng đảng trước khi ban hành luật cần được hoan nghênh.
Tuy nhiên, hiểu được vấn đề chỉ là bước đầu tiên. Để giải quyết vấn đề này - để cân bằng nhu cầu về tốc độ với nhu cầu về an toàn - các nhà hoạch định chính sách sẽ phải thực hiện các phương pháp tiếp cận tốt hơn để đẩy nhanh việc áp dụng cũng như đảm bảo an toàn. Nếu không, người Mỹ có nguy cơ bị cuốn vào một thế giới với những mối nguy hiểm ngày càng tăng về AI cũng như sự suy giảm quyền lực và ảnh hưởng của Mỹ.
Nguồn: Foreign Affairs
 


Đăng nhập một lần thảo luận tẹt ga

Gợi ý cộng đồng

Top