AI sẽ tác động đến khả năng răn đe như thế nào?

Trong lĩnh vực quốc phòng và an ninh, Trí tuệ nhân tạo (AI) có khả năng làm thay đổi các hoạt động răn đe và ép buộc, có ít nhất ba tác động bổ sung lên các tính toán về quyền lực, nhận thức và thuyết phục giữa các quốc gia.

Các khoản đầu tư đáng kể vào AI của các chính phủ, ngành công nghiệp tư nhân và học viện nhấn mạnh vai trò then chốt của nó. Tuy nhiên, phần lớn cuộc thảo luận tập trung vào các câu chuyện miêu tả robot giết người kiểu kẻ hủy diệt hoặc các loại thuốc chữa bách bệnh không tưởng. Những khám phá cực kỳ giới hạn như vậy để lại những câu hỏi về ảnh hưởng tiềm tàng của AI đối với các vấn đề chiến lược quan trọng chưa được giải đáp.

Do đó, một cuộc trò chuyện về cách AI sẽ thay đổi phương trình răn đe và cưỡng chế cũng như cách giải quyết những thách thức chiến lược mà điều này đặt ra là điều cần thiết.

1718182299585.png
Về cốt lõi, răn đe là tác động đến hành vi của đối thủ thông qua việc đe dọa trừng phạt hoặc trả thù. Mục tiêu của răn đe là thuyết phục đối thủ từ bỏ một hành động cụ thể bằng cách gieo rắc nỗi sợ hãi về hậu quả, từ đó thao túng các tính toán chi phí-lợi ích của họ. Trong khi răn đe nhằm mục đích ngăn cản đối phương thực hiện một hành động cụ thể trong tương lai, thì cưỡng chế lại tìm cách buộc đối phương phải thay đổi hành vi hiện tại.

Cả hai khái niệm đều thuộc khái niệm cưỡng bức rộng hơn. Các tác nhân tham gia vào hoạt động này phải cân nhắc cẩn thận cách truyền đạt các mối đe dọa tới đối thủ của mình để khiến họ xem xét lại ý chí thực hiện các hành động cụ thể của mình. Mỗi động thái và phản ứng trong tính toán cưỡng chế đều ẩn chứa những rủi ro leo thang đáng kể, có thể gây ra những hậu quả không lường trước được. Do đó, những người ra quyết định phải xem xét từng bước một cách thận trọng, dựa trên lịch sử, tâm lý và bối cảnh để truyền đạt những mối đe dọa đáng tin cậy nhằm ngăn cản đối thủ vượt qua ranh giới đỏ.

Chúng ta hãy xem xét từng yếu tố thiết yếu của sự ép buộc: quyền lực, nhận thức và thuyết phục.

Quyền lực có nhiều chiều kích. Khả năng quân sự, sự giàu có về kinh tế, tiến bộ kỹ thuật, quan hệ ngoại giao, tài nguyên thiên nhiên và ảnh hưởng văn hóa của một chủ thể đều nằm trong số đó. Bên cạnh sức mạnh thực tế, khả năng báo hiệu sự sở hữu của nó là rất quan trọng. Như Thomas Hobbes, nhà triết học người Anh, cha đẻ của “khế ước xã hội” đã nói trong Leviathan, “danh tiếng của quyền lực là quyền lực”.

Quan niệm của Hobbes vẫn phù hợp, vì quyền lực cắt ngang các năng lực cứng. Nó cũng cho biết nhận thức của chúng ta về người khác, bao gồm hiểu nỗi sợ hãi, hệ tư tưởng, động cơ và động cơ thúc đẩy cách họ hành động, cũng như phương tiện mà các chủ thể sử dụng để thuyết phục người khác đạt được điều họ muốn trong mối quan hệ của họ.

Tuy nhiên, sự tương tác năng động về quyền lực thúc đẩy hợp tác, cạnh tranh và xung đột này có thể sẽ ngày càng trở nên bất ổn do AI và sự mơ hồ mà nó sẽ đưa vào tâm trí những người ra quyết định khi diễn giải tham vọng phòng thủ hoặc tấn công của một chủ thể. Ví dụ: nếu một tác nhân đã coi người kia là ác ý, thì việc tận dụng AI có thể sẽ củng cố thành kiến cho rằng tư thế quân sự của đối thủ cạnh tranh ngày càng phản ánh xu hướng tấn công hơn là phòng thủ. Việc củng cố những thành kiến có thể có nghĩa là việc ngoại giao đóng vai trò làm giảm căng thẳng sẽ trở nên khó khăn hơn.

Sự thiếu khả năng giải thích vốn có của AI, ngay cả trong các ứng dụng vô hại, đặt ra một thách thức đáng kể khi nó ngày càng được tích hợp vào các khả năng quân sự có khả năng gây ra tổn hại to lớn. Những người ra quyết định sẽ phải vật lộn với việc giải thích phương trình tấn công-phòng thủ của đối tác trong bối cảnh mơ hồ này.

Ví dụ, hãy tưởng tượng nếu một bộ AI Tình báo, Giám sát và Trinh sát (IRS) theo dõi các cuộc tập trận quân sự của Trung Quốc ở Biển Đông đã phân tích các cuộc tập trận này như một khúc dạo đầu cho một cuộc tấn công vào Đài Loan và khuyến nghị Hoa Kỳ triển khai các nhóm tàu sân bay để ngăn chặn hành động di chuyển của Trung Quốc. Những người ra quyết định của Hoa Kỳ tin tưởng vào khuyến nghị này vì bộ AI ISR đã xử lý nhiều dữ liệu hơn con người có thể và thực hiện khuyến nghị đó. Tuy nhiên, Bắc Kinh không thể chắc chắn liệu động thái của Mỹ là nhằm đáp trả các cuộc tập trận quân sự của nước này hay nhằm mục đích khác. Ban lãnh đạo Trung Quốc cũng không chắc chắn về việc Hoa Kỳ đi đến quyết định này như thế nào và ý định của họ là gì, điều này làm tăng thêm sự mù mờ trong cách giải thích của họ về các động cơ chiến lược của Mỹ và mức độ mà những động cơ này được thông báo bởi lời khuyên của AI so với nhận thức của con người. Động lực như vậy sẽ khuếch đại những nhận thức sai lầm và khiến việc ngăn chặn một vòng xoáy nguy hiểm vốn có thể dẫn đến xung đột động lực trở nên khó khăn hơn.

Một mối quan tâm cấp bách khác là liệu AI có thể làm trầm trọng thêm việc hình thành hình ảnh kẻ thù hay không, dẫn đến việc đánh giá tình huống xấu nhất được sử dụng để biện minh cho hình phạt hoặc bạo lực. Rủi ro này không phải là giả thuyết; dữ liệu sai lệch trong việc lập chính sách dựa trên dữ liệu đã dẫn đến việc nhắm mục tiêu không cân xứng vào các nhóm thiểu số. Trong lĩnh vực quân sự, sai lệch thuật toán, xuất phát từ việc thu thập, đào tạo và ứng dụng dữ liệu, có thể gây ra hậu quả chết người. Con người có thể định hình AI, nhưng công nghệ mới có thể định hình việc ra quyết định trong tương lai của họ.

Sự không chắc chắn thường xuyên trong hệ thống nhà nước quốc tế có nghĩa là nhận thức sẽ vẫn mang tính định kiến. Không có giải pháp kỹ thuật nào, kể cả AI, có thể khắc phục được những bất an sâu sắc này của con người. Hình ảnh nhận thức, nghĩa là nhận thức của một tác nhân về đối tác của họ, không thể được rút gọn thành dữ liệu, cho dù bộ dữ liệu đa vectơ cung cấp khả năng AI có phức tạp đến đâu, một phần vì dữ liệu không thể ghi lại cảm giác độc đáo của bất kỳ tình huống cụ thể nào.

Vì vậy, bất chấp tiềm năng của AI trong việc nâng cao năng lực quân sự bằng cách cải thiện nhận thức tình huống, nhắm mục tiêu chính xác và ra quyết định nhanh chóng, nó không thể xóa bỏ tình thế tiến thoái lưỡng nan về an ninh bắt nguồn từ sự bất ổn quốc tế mang tính hệ thống. Trong trường hợp tốt nhất, việc tăng cường áp dụng AI trong các cơ cấu chính trị, quốc phòng và quân sự của các chủ thể trên toàn cầu có thể dẫn đến những nhận thức tương tự.

Tuy nhiên, chúng ta cũng nên chuẩn bị cho sự biến động lớn hơn khi các quốc gia chạy đua để vượt lên trên các đối thủ cạnh tranh vì tin rằng AI có thể tăng tốc vị trí của họ trong hệ thống quốc tế, làm trầm trọng thêm tình thế tiến thoái lưỡng nan về an ninh. Kết quả là, các quốc gia thường chuẩn bị cho điều tồi tệ nhất vì họ không bao giờ có thể thực sự biết được ý định của đối thủ cạnh tranh.

Thách thức trọng tâm nằm ở việc truyền đạt hiệu quả các khả năng dựa trên thuật toán. Không có biện pháp nào tương đương với việc đo lường khả năng AI đối với các nền tảng vũ khí vật lý như xe tăng, tên lửa hoặc tàu ngầm, điều này chỉ làm tăng thêm sự không chắc chắn về mặt răn đe.

Thứ ba, nghệ thuật thuyết phục cũng có thể trở nên phức tạp hơn khi áp dụng AI. Những tiến bộ trong AI đã chứng minh sức mạnh của hệ thống AI có thể thuyết phục con người mua sản phẩm, xem video và đi sâu hơn. Khi các hệ thống AI trở nên cá nhân hóa, phổ biến và dễ tiếp cận hơn, kể cả trong các môi trường nhạy cảm và được phân loại cao, có nguy cơ là những thành kiến của những người ra quyết định có thể ảnh hưởng đến cách họ định hình thực tế và các hành động của chính họ.

Các nhà lãnh đạo dân sự và quân sự muốn tin rằng họ đang kiểm soát môi trường thông tin. Tuy nhiên, AI có thể thay đổi chất lượng trải nghiệm của họ, vì họ cũng sẽ phải hứng chịu các chiến dịch thông tin sai lệch và sai lệch mạnh mẽ ở các mức độ khác nhau từ đối thủ. Do đó, việc chúng ta tương tác với AI và các công cụ thuyết phục do AI điều khiển có thể sẽ ảnh hưởng đến môi trường thông tin của chính chúng ta, ảnh hưởng đến cách chúng ta thực hành và phản ứng với động lực của sự ép buộc.

Việc áp dụng AI ngày càng tăng trong lĩnh vực quân sự đặt ra những thách thức đáng kể đối với các hoạt động răn đe. Việc AI thiếu khả năng giải thích khiến những người ra quyết định khó diễn giải chính xác ý định của đối tác, làm tăng nguy cơ hiểu sai và leo thang căng thẳng. Việc áp dụng AI sớm có thể củng cố hình ảnh và thành kiến của kẻ thù, nuôi dưỡng sự ngờ vực và có khả năng gây ra xung đột. Mặc dù AI tăng cường khả năng quân sự trên phạm vi rộng nhưng nó không thể loại bỏ được tình trạng bất an tiềm ẩn gây ra tình thế tiến thoái lưỡng nan về an ninh trong quan hệ giữa các quốc gia. Khi các quốc gia tranh giành lợi thế chiến lược do AI điều khiển, sự biến động và nguy cơ leo thang sẽ gia tăng. Cuối cùng, bi kịch của sự không chắc chắn và sợ hãi nhấn mạnh sự cần thiết phải hoạch định chính sách thận trọng khi AI ngày càng trở nên phổ biến hơn trong các bộ máy chiến tranh.

Nishank Motwani, Nhà phân tích cao cấp tại Viện Chính sách Chiến lược Úc

Viết cho National Interest
 


Đăng nhập một lần thảo luận tẹt ga
Top