Tương lai của AI là chiến tranh

Từng bị giới hạn trong lĩnh vực khoa học viễn tưởng, khái niệm siêu máy tính giết chết con người giờ đây đã trở thành một khả năng khác biệt trong thế giới thực của tương lai gần.
Tương lai của AI là chiến tranh
Một thế giới trong đó máy móc được điều khiển bởi trí tuệ nhân tạo (AI) thay thế con người một cách có hệ thống trong hầu hết các chức năng kinh doanh, công nghiệp và nghề nghiệp thật kinh khủng khi tưởng tượng. Xét cho cùng, như các nhà khoa học máy tính nổi tiếng đã cảnh báo chúng ta, các hệ thống do AI điều khiển dễ mắc các lỗi nghiêm trọng và “ảo giác” không thể giải thích được, dẫn đến hậu quả có thể là thảm họa. Nhưng có một kịch bản thậm chí còn nguy hiểm hơn có thể tưởng tượng được từ sự phổ biến của các cỗ máy siêu thông minh: khả năng những thực thể không phải con người đó cuối cùng có thể chiến đấu với nhau, xóa sổ toàn bộ sự sống của con người trong quá trình này.
Tất nhiên, quan điểm cho rằng các máy tính siêu thông minh có thể chạy điên cuồng và tàn sát con người từ lâu đã trở thành một yếu tố chính của văn hóa đại chúng. Trong bộ phim tiên tri WarGames năm 1983, một siêu máy tính được gọi là WOPR (viết tắt của War Operation Plan Response và, không ngạc nhiên, được phát âm là “whopper”) gần như gây ra một cuộc chiến tranh hạt nhân thảm khốc giữa Hoa Kỳ và Liên Xô trước khi bị vô hiệu hóa bởi một hacker tuổi teen ( do Matthew Broderick thủ vai). Thương hiệu phim “Kẻ hủy diệt”, bắt đầu với bộ phim gốc năm 1984, cũng hình dung tương tự về một siêu máy tính tự nhận thức có tên là “Skynet”, giống như WOPR, được thiết kế để kiểm soát vũ khí hạt nhân của Hoa Kỳ nhưng thay vào đó lại chọn cách quét sạch loài người, coi chúng ta là mối đe dọa đến sự tồn tại của nó.
Mặc dù từng bị giới hạn trong lĩnh vực khoa học viễn tưởng, nhưng khái niệm siêu máy tính giết người giờ đã trở thành một khả năng khác biệt trong thế giới thực của tương lai gần. Ngoài việc phát triển nhiều loại thiết bị chiến đấu “tự động” hoặc robot, các cường quốc quân sự lớn cũng đang gấp rút tạo ra các hệ thống ra quyết định chiến trường tự động, hay còn gọi là “tướng robot”. Trong các cuộc chiến trong tương lai không xa, các hệ thống hỗ trợ AI như vậy có thể được triển khai để đưa ra mệnh lệnh chiến đấu cho binh lính Mỹ, ra lệnh cho họ ở đâu, khi nào và cách họ tiêu diệt quân địch hoặc khai hỏa đối thủ. Trong một số tình huống, những người ra quyết định bằng rô-bốt thậm chí có thể kiểm soát vũ khí nguyên tử của Mỹ, có khả năng cho phép chúng châm ngòi cho một cuộc chiến tranh hạt nhân dẫn đến sự diệt vong của loài người.
Bây giờ, hãy hít thở một chút. Việc cài đặt hệ thống chỉ huy và kiểm soát (C2) do AI cung cấp như thế này có vẻ là một khả năng xa vời. Tuy nhiên, Bộ Quốc phòng Hoa Kỳ đang nỗ lực phát triển phần cứng và phần mềm cần thiết một cách có hệ thống và ngày càng nhanh chóng. Chẳng hạn, trong bản đệ trình ngân sách cho năm 2023, Lực lượng Không quân đã yêu cầu 231 triệu đô la để phát triển Hệ thống Quản lý Chiến trường Tiên tiến (ABMS), một mạng phức tạp gồm các cảm biến và máy tính hỗ trợ AI được thiết kế để thu thập và giải thích dữ liệu về các hoạt động của kẻ thù và cung cấp cho phi công và lực lượng mặt đất với một menu các tùy chọn tấn công tối ưu. Khi công nghệ tiến bộ, hệ thống sẽ có khả năng gửi trực tiếp các hướng dẫn “khai hỏa” đến “những người bắn súng”, phần lớn bỏ qua sự kiểm soát của con người.
“Một công cụ trao đổi dữ liệu giữa máy với máy cung cấp các tùy chọn để ngăn chặn, hoặc để tấn công [một cuộc phô trương lực lượng quân sự] hoặc tham gia sớm,” là cách Will Roper, trợ lý bộ trưởng Không quân phụ trách mua lại, công nghệ và hậu cần, đã mô tả hệ thống ABMS trong một cuộc phỏng vấn năm 2020. Đề xuất rằng “chúng ta cần phải thay đổi tên” khi hệ thống phát triển, Roper nói thêm, “Tôi nghĩ Skynet đã ngừng hoạt động, dù tôi rất thích làm điều đó như một thứ khoa học viễn tưởng. Tôi chỉ không nghĩ rằng chúng ta có thể đến đó.
Và trong khi anh ấy không thể đến đó, thì đó thực sự là nơi mà những người còn lại trong chúng ta có thể sẽ đến.
Tâm trí bạn, đó chỉ là khởi đầu
Trên thực tế, ABMS của Lực lượng Không quân được dự định tạo thành hạt nhân của một chòm sao lớn hơn gồm các cảm biến và máy tính sẽ kết nối tất cả các lực lượng chiến đấu của Hoa Kỳ, Hệ thống Chỉ huy và Kiểm soát Chung Toàn Miền (JADC2, phát âm là “Jad-C-hai ”). “JADC2 dự định cho phép các chỉ huy đưa ra quyết định tốt hơn bằng cách thu thập dữ liệu từ nhiều cảm biến, xử lý dữ liệu bằng thuật toán trí tuệ nhân tạo để xác định mục tiêu, sau đó đề xuất vũ khí tối ưu… để tấn công mục tiêu,” Cơ quan Nghiên cứu Quốc hội báo cáo vào năm 2022.
AI và Trình kích hoạt hạt nhân
Ban đầu, JADC2 sẽ được thiết kế để phối hợp các hoạt động chiến đấu giữa các lực lượng “thông thường” hoặc phi hạt nhân của Mỹ. Tuy nhiên, cuối cùng, nó được cho là sẽ liên kết với các hệ thống liên lạc và kiểm soát chỉ huy hạt nhân (NC3) của Lầu Năm Góc, có khả năng trao cho máy tính quyền kiểm soát đáng kể đối với việc sử dụng kho vũ khí hạt nhân của Mỹ. “JADC2 và NC3 gắn liền với nhau,” Tướng John E. Hyten, phó chủ tịch Hội đồng Tham mưu trưởng Liên quân, cho biết trong một cuộc phỏng vấn năm 2020. Do đó, anh ấy nói thêm bằng tiếng Lầu Năm Góc điển hình, “NC3 phải thông báo cho JADC2 và JADC2 phải thông báo cho NC3.”
Không cần trí tưởng tượng tuyệt vời để hình dung ra một thời điểm trong tương lai không xa khi một loại khủng hoảng nào đó – chẳng hạn như một cuộc đụng độ quân sự giữa Hoa Kỳ và Trung Quốc ở Biển Đông hoặc gần Đài Loan – gây ra giao tranh dữ dội hơn bao giờ hết giữa các phe đối lập. và lực lượng hải quân. Hãy tưởng tượng sau đó JADC2 ra lệnh bắn phá dữ dội các căn cứ và hệ thống chỉ huy của kẻ thù ở chính Trung Quốc, gây ra các cuộc tấn công đáp trả vào các cơ sở của Hoa Kỳ và JADC2 đưa ra quyết định chớp nhoáng để trả đũa bằng vũ khí hạt nhân chiến thuật, châm ngòi cho một cuộc tàn sát hạt nhân đáng sợ từ lâu.
Khả năng các kịch bản ác mộng kiểu này có thể dẫn đến sự bùng phát chiến tranh hạt nhân tình cờ hoặc ngoài ý muốn từ lâu đã khiến các nhà phân tích trong cộng đồng kiểm soát vũ khí lo lắng. Nhưng việc tự động hóa ngày càng tăng của quân đội
Các hệ thống C2 đã tạo ra sự lo lắng không chỉ trong số họ mà cả các quan chức an ninh quốc gia cấp cao.
Ngay từ năm 2019, khi tôi hỏi Trung tướng Jack Shanahan, khi đó là Giám đốc Trung tâm Trí tuệ Nhân tạo Chung của Lầu Năm Góc, về khả năng rủi ro như vậy, ông ấy đã trả lời: “Bạn sẽ không tìm thấy người nào ủng hộ mạnh mẽ hơn việc tích hợp các khả năng AI vào Bộ Quốc phòng. Quốc phòng, nhưng có một lĩnh vực mà tôi tạm dừng, và nó liên quan đến chỉ huy và kiểm soát hạt nhân.” Đây “là quyết định cuối cùng của con người cần được đưa ra” và vì vậy “chúng ta phải hết sức cẩn thận.” Ông nói thêm, do “sự non nớt” của công nghệ, chúng tôi cần “rất nhiều thời gian để kiểm tra và đánh giá [trước khi áp dụng AI vào NC3].
Trong những năm kể từ đó, bất chấp những cảnh báo như vậy, Lầu Năm Góc đã chạy đua với việc phát triển các hệ thống C2 tự động. Trong bản đệ trình ngân sách cho năm 2024, Bộ Quốc phòng đã yêu cầu 1,4 tỷ đô la cho JADC2 để “chuyển đổi khả năng chiến đấu bằng cách cung cấp lợi thế thông tin với tốc độ phù hợp trên tất cả các lĩnh vực và đối tác”. Uh-oh! Và sau đó, nó yêu cầu thêm 1,8 tỷ đô la cho các loại nghiên cứu AI liên quan đến quân sự khác.
Các quan chức Lầu Năm Góc thừa nhận rằng sẽ mất một thời gian trước khi các tướng robot chỉ huy một số lượng lớn quân đội Hoa Kỳ (và vũ khí tự động) trong trận chiến, nhưng họ đã khởi động một số dự án nhằm thử nghiệm và hoàn thiện các liên kết như vậy. Một ví dụ là Hội tụ Dự án của Quân đội, liên quan đến một loạt các bài tập thực địa được thiết kế để xác nhận các hệ thống thành phần ABMS và JADC2. Chẳng hạn, trong một cuộc thử nghiệm được tổ chức vào tháng 8 năm 2020 tại Yuma Proving Ground ở Arizona, Quân đội đã sử dụng nhiều loại cảm biến trên không và trên mặt đất để theo dõi lực lượng kẻ thù mô phỏng, sau đó xử lý dữ liệu đó bằng máy tính hỗ trợ AI tại Căn cứ chung Lewis McChord ở bang Washington. Đến lượt mình, những máy tính đó đã đưa ra các hướng dẫn khai hỏa cho pháo binh trên mặt đất tại Yuma. “Toàn bộ trình tự này được cho là đã hoàn thành trong vòng 20 giây,” Dịch vụ Nghiên cứu của Quốc hội sau đó đã báo cáo.
Người ta biết ít hơn về AI tương đương của Navy, “Project Overmatch”, vì nhiều khía cạnh trong chương trình của nó đã được giữ bí mật. Theo Đô đốc Michael Gilday, chỉ huy trưởng các hoạt động hải quân, Overmatch nhằm mục đích “tạo điều kiện cho Hải quân bao trùm biển, mang lại các hiệu ứng gây chết người và không gây chết người đồng bộ từ gần và xa, mọi trục và mọi miền.” Ít khác đã được tiết lộ về dự án.
“Chiến tranh chớp nhoáng” và sự tuyệt chủng của loài người"
Bất chấp mọi bí mật xung quanh các dự án này, bạn có thể coi ABMS, JADC2, Convergence và Overmatch là các khối xây dựng cho một mạng lưới siêu máy tính giống như Skynet trong tương lai được thiết kế để chỉ huy tất cả các lực lượng Hoa Kỳ, bao gồm cả các lực lượng hạt nhân, trong vũ trang. chiến đấu. Lầu Năm Góc càng đi theo hướng đó, chúng ta càng tiến gần đến thời điểm mà AI sở hữu quyền sinh tử đối với tất cả binh lính Mỹ cùng với các lực lượng đối lập và bất kỳ thường dân nào bị kẹt trong làn đạn.
Một triển vọng như vậy nên có nhiều lý do để lo lắng. Để bắt đầu, hãy xem xét nguy cơ sai sót và tính toán sai của các thuật toán nằm ở trung tâm của các hệ thống như vậy. Như các nhà khoa học máy tính hàng đầu đã cảnh báo chúng ta, những thuật toán đó có khả năng mắc những sai lầm đáng kể không thể giải thích được và, để sử dụng thuật ngữ AI của thời điểm này, “ảo giác”—tức là những kết quả có vẻ hợp lý hoàn toàn là ảo tưởng. Trong hoàn cảnh đó, không khó để tưởng tượng những chiếc máy tính như vậy “ảo giác” về một cuộc tấn công sắp xảy ra của kẻ thù và phát động một cuộc chiến mà lẽ ra có thể tránh được.
Và đó không phải là mối nguy hiểm tồi tệ nhất cần xem xét. Xét cho cùng, có khả năng rõ ràng là các đối thủ của Mỹ cũng sẽ trang bị cho lực lượng của họ những vị tướng người máy tương tự. Nói cách khác, các cuộc chiến tranh trong tương lai có khả năng được chiến đấu bởi một bộ hệ thống AI chống lại một bộ hệ thống khác, cả hai đều được liên kết với vũ khí hạt nhân, với kết quả hoàn toàn không thể đoán trước—nhưng có khả năng gây thảm họa—.
Không có nhiều thông tin (ít nhất là từ các nguồn công khai) về những nỗ lực của Nga và Trung Quốc nhằm tự động hóa các hệ thống chỉ huy và kiểm soát quân sự của họ, nhưng cả hai nước được cho là đang phát triển các mạng có thể so sánh với JADC2 của Lầu Năm Góc. Trên thực tế, ngay từ năm 2014, Nga đã khánh thành Trung tâm Kiểm soát Quốc phòng (NDCC) tại Moscow, một cơ quan chỉ huy tập trung để đánh giá các mối đe dọa toàn cầu và khởi xướng bất kỳ hành động quân sự nào được cho là cần thiết, cho dù có tính chất phi hạt nhân hay hạt nhân. Giống như JADC2, NDCC được thiết kế để thu thập thông tin về động thái của kẻ thù từ nhiều nguồn và cung cấp cho các sĩ quan cấp cao hướng dẫn về các phản ứng có thể xảy ra.
Trung Quốc được cho là đang theo đuổi một doanh nghiệp thậm chí còn phức tạp hơn, nếu tương tự, theo tiêu chí “Chiến tranh chính xác đa miền” (MDPW). Theo báo cáo năm 2022 của Lầu Năm Góc về sự phát triển của quân đội Trung Quốc, quân đội của họ, Quân đội Giải phóng Nhân dân, đang được đào tạo và trang bị để sử dụng các cảm biến và mạng máy tính hỗ trợ AI để “nhanh chóng xác định các lỗ hổng chính trong hệ thống tác chiến của Hoa Kỳ và sau đó kết hợp các lực lượng chung trên toàn thế giới”. tên miền để khởi động các cuộc tấn công chính xác chống lại các lỗ hổng đó.”
Sau đó, hình dung về một cuộc chiến trong tương lai giữa Hoa Kỳ và Nga hoặc Trung Quốc (hoặc cả hai), trong đó JADC2 chỉ huy tất cả các lực lượng Hoa Kỳ, trong khi NDCC của Nga và MDPW của Trung Quốc chỉ huy các lực lượng của các quốc gia đó. Cũng nên xem xét rằng cả ba hệ thống đều có khả năng gặp lỗi và ảo giác. Con người sẽ an toàn đến mức nào khi các tướng lĩnh robot quyết định rằng đã đến lúc “chiến thắng” cuộc chiến bằng cách hạ gục kẻ thù của họ?
Nếu đây là một kịch bản lạ lùng, hãy nghĩ lại, ít nhất là theo lãnh đạo của Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo, một doanh nghiệp được quốc hội ủy quyền do Eric Schmidt, cựu giám đốc Google và Robert Work, cựu phó thư ký làm chủ tịch. của quốc phòng. “Mặc dù Ủy ban tin rằng các hệ thống vũ khí tự động và hỗ trợ AI được thiết kế, thử nghiệm và sử dụng phù hợp sẽ mang lại lợi ích quân sự và thậm chí nhân đạo đáng kể, nhưng việc sử dụng toàn cầu các hệ thống như vậy không được kiểm soát có thể gây rủi ro leo thang xung đột ngoài ý muốn và bất ổn khủng hoảng,” Ủy ban khẳng định trong báo cáo của mình. Báo cáo cuối kỳ. Nó tuyên bố rằng những mối nguy hiểm như vậy có thể phát sinh “do sự tương tác phức tạp đầy thách thức và chưa được kiểm chứng giữa các hệ thống vũ khí tự động và hỗ trợ AI trên chiến trường” —tức là khi AI chiến đấu với AI.
Mặc dù đây có vẻ là một kịch bản cực đoan, nhưng hoàn toàn có khả năng các hệ thống AI đối địch có thể gây ra một “cuộc chiến chớp nhoáng” thảm khốc—tương đương với một “sự cố chớp nhoáng” ở Phố Wall, khi các giao dịch khổng lồ bằng các thuật toán giao dịch siêu tinh vi gây ra tình trạng bán tháo hoảng loạn trước đó. người vận hành có thể lập lại trật tự. Trong “Sự cố chớp nhoáng” khét tiếng vào ngày 6 tháng 5 năm 2010, giao dịch do máy tính điều khiển đã khiến giá trị thị trường chứng khoán giảm 10%. Theo Paul Scharre của Trung tâm An ninh Mỹ Mới, người đầu tiên nghiên cứu hiện tượng này, “sự tương đương về mặt quân sự của những cuộc khủng hoảng như vậy” ở Phố Wall sẽ phát sinh khi các hệ thống chỉ huy tự động của các lực lượng đối lập “bị mắc kẹt trong một loạt các cuộc giao tranh leo thang. ” Trong tình huống như vậy, ông lưu ý, “vũ khí tự trị có thể dẫn đến cái chết và sự hủy diệt ngẫu nhiên ở quy mô thảm khốc ngay lập tức.”
Hiện tại, hầu như không có biện pháp nào để ngăn chặn thảm họa tương tự trong tương lai hoặc thậm chí không có cuộc đàm phán giữa các cường quốc để đưa ra các biện pháp như vậy. Tuy nhiên, như Ủy ban An ninh Quốc gia về Trí tuệ Nhân tạo đã lưu ý, các biện pháp kiểm soát khủng hoảng như vậy là rất cần thiết để tích hợp “dây leo thang tự động” vào các hệ thống như vậy “ngăn chặn xung đột leo thang tự động”. Mặt khác, một số phiên bản thảm khốc của Thế chiến III dường như hoàn toàn có thể xảy ra. Với sự non nớt nguy hiểm của công nghệ như vậy và sự miễn cưỡng của Bắc Kinh, Moscow và Washington trong việc áp đặt bất kỳ hạn chế nào đối với việc vũ khí hóa AI, ngày mà máy móc có thể chọn cách tiêu diệt chúng ta có thể đến sớm hơn chúng ta tưởng tượng và sự tuyệt chủng của loài người có thể sẽ đến. thiệt hại tài sản thế chấp của một cuộc chiến trong tương lai như vậy.
Tham khảo bài viết gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga
Top