Hoàng Nam
Writer
Bộ Quốc phòng Mỹ đã đưa ra tối hậu thư cho công ty trí tuệ nhân tạo Anthropic, yêu cầu hãng này gỡ bỏ các hạn chế sử dụng quân sự đối với mô hình AI Claude trước thứ Sáu (27/2/2026), nếu không sẽ đối mặt với nguy cơ mất hợp đồng trị giá hàng trăm triệu đô la và các biện pháp trừng phạt khác, theo các nguồn tin thân cận với vấn đề.
Cuộc tranh cãi bắt nguồn từ việc Anthropic, nhà phát triển mô hình ngôn ngữ lớn Claude, duy trì các điều khoản đạo đức nghiêm ngặt trong điều khoản sử dụng (usage policy) của mình. Công ty cấm ứng dụng Claude vào việc phát triển hoặc hỗ trợ vũ khí tự động (autonomous weapons) không có sự giám sát của con người, cũng như giám sát hàng loạt (mass surveillance) đối với công dân Mỹ. Những giới hạn này được ghi rõ trong hiến chương và cam kết an toàn của Anthropic, nhằm tránh rủi ro lạm dụng công nghệ AI.
Nguyên nhân xung đột nằm ở chiến lược quốc phòng của chính quyền Tổng thống Donald Trump. Bộ Quốc phòng Mỹ, dưới sự lãnh đạo của Bộ trưởng Pete Hegseth, đang thúc đẩy việc tích hợp AI tiên tiến vào các hệ thống quân sự, bao gồm hỗ trợ tác chiến, phân tích tình báo và các ứng dụng khác.
Washington coi việc loại bỏ "các ràng buộc ý thức hệ" là cần thiết để duy trì lợi thế cạnh tranh trước các đối thủ như Trung Quốc, đồng thời khẳng định quân đội chỉ sử dụng AI cho các mục đích hợp pháp theo luật Mỹ.
Anthropic đã ký hợp đồng trị giá lên đến 200 triệu USD với Lầu Năm Góc vào năm ngoái, trở thành công ty AI duy nhất được phép triển khai mô hình trên các mạng lưới phân loại (classified networks) của quân đội Mỹ, hợp tác với các đối tác như Palantir. Tuy nhiên, các cuộc đàm phán kéo dài nhiều tháng về điều khoản sử dụng đã rơi vào bế tắc, khi Anthropic kiên quyết không nhượng bộ hai "lằn ranh đỏ" chính: vũ khí tự trị và giám sát dân sự quy mô lớn.
Tiến triển leo thang vào ngày thứ Ba (24/2/2026), khi Bộ trưởng Hegseth triệu tập CEO Anthropic Dario Amodei đến Lầu Năm Góc cho một cuộc họp căng thẳng. Theo nhiều nguồn tin từ các quan chức quốc phòng và người quen thuộc với cuộc gặp, ông Hegseth đã đưa ra tối hậu thư rõ ràng: Anthropic phải đồng ý gỡ bỏ các hạn chế để quân đội có thể sử dụng Claude cho "mọi mục đích hợp pháp" trước 17h01 thứ Sáu (giờ miền Đông), nếu không Bộ Quốc phòng sẽ thực hiện một hoặc nhiều biện pháp sau:
- Hủy bỏ hợp đồng hiện tại.
- Chỉ định Anthropic là "rủi ro chuỗi cung ứng" (supply chain risk), buộc các nhà thầu quốc phòng khác phải cắt đứt quan hệ với công ty.
- Áp dụng Đạo luật Sản xuất Quốc phòng (Defense Production Act), một đạo luật thời Chiến tranh Lạnh, để buộc Anthropic phải điều chỉnh mô hình theo yêu cầu của quân đội, ngay cả khi không có sự đồng ý của hãng.
Một nguồn tin quốc phòng cấp cao mô tả đây là bước đi hiếm thấy mang tính đối đầu, nhấn mạnh rằng Lầu Năm Góc không muốn mất quyền truy cập Claude - hiện là mô hình AI duy nhất hoạt động trên hệ thống phân loại - nhưng sẵn sàng dùng biện pháp mạnh để đạt mục tiêu.
Phía Anthropic, theo một nguồn tin thân cận, không có ý định nhượng bộ các giới hạn an toàn cốt lõi. Công ty tiếp tục khẳng định lập trường rằng việc gỡ bỏ các biện pháp bảo vệ sẽ mâu thuẫn với sứ mệnh an toàn AI của mình.Tình hình hiện tại vẫn đang trong giai đoạn đàm phán khẩn cấp, với thời hạn chót chỉ còn vài ngày. Các nhà quan sát cho rằng kết quả có thể ảnh hưởng lớn đến mối quan hệ giữa chính phủ Mỹ và các công ty AI tư nhân, cũng như định hình cách tiếp cận toàn cầu về đạo đức sử dụng AI quân sự.
Cuộc tranh cãi bắt nguồn từ việc Anthropic, nhà phát triển mô hình ngôn ngữ lớn Claude, duy trì các điều khoản đạo đức nghiêm ngặt trong điều khoản sử dụng (usage policy) của mình. Công ty cấm ứng dụng Claude vào việc phát triển hoặc hỗ trợ vũ khí tự động (autonomous weapons) không có sự giám sát của con người, cũng như giám sát hàng loạt (mass surveillance) đối với công dân Mỹ. Những giới hạn này được ghi rõ trong hiến chương và cam kết an toàn của Anthropic, nhằm tránh rủi ro lạm dụng công nghệ AI.
Nguyên nhân xung đột nằm ở chiến lược quốc phòng của chính quyền Tổng thống Donald Trump. Bộ Quốc phòng Mỹ, dưới sự lãnh đạo của Bộ trưởng Pete Hegseth, đang thúc đẩy việc tích hợp AI tiên tiến vào các hệ thống quân sự, bao gồm hỗ trợ tác chiến, phân tích tình báo và các ứng dụng khác.
Washington coi việc loại bỏ "các ràng buộc ý thức hệ" là cần thiết để duy trì lợi thế cạnh tranh trước các đối thủ như Trung Quốc, đồng thời khẳng định quân đội chỉ sử dụng AI cho các mục đích hợp pháp theo luật Mỹ.
Anthropic đã ký hợp đồng trị giá lên đến 200 triệu USD với Lầu Năm Góc vào năm ngoái, trở thành công ty AI duy nhất được phép triển khai mô hình trên các mạng lưới phân loại (classified networks) của quân đội Mỹ, hợp tác với các đối tác như Palantir. Tuy nhiên, các cuộc đàm phán kéo dài nhiều tháng về điều khoản sử dụng đã rơi vào bế tắc, khi Anthropic kiên quyết không nhượng bộ hai "lằn ranh đỏ" chính: vũ khí tự trị và giám sát dân sự quy mô lớn.
Tiến triển leo thang vào ngày thứ Ba (24/2/2026), khi Bộ trưởng Hegseth triệu tập CEO Anthropic Dario Amodei đến Lầu Năm Góc cho một cuộc họp căng thẳng. Theo nhiều nguồn tin từ các quan chức quốc phòng và người quen thuộc với cuộc gặp, ông Hegseth đã đưa ra tối hậu thư rõ ràng: Anthropic phải đồng ý gỡ bỏ các hạn chế để quân đội có thể sử dụng Claude cho "mọi mục đích hợp pháp" trước 17h01 thứ Sáu (giờ miền Đông), nếu không Bộ Quốc phòng sẽ thực hiện một hoặc nhiều biện pháp sau:
- Hủy bỏ hợp đồng hiện tại.
- Chỉ định Anthropic là "rủi ro chuỗi cung ứng" (supply chain risk), buộc các nhà thầu quốc phòng khác phải cắt đứt quan hệ với công ty.
- Áp dụng Đạo luật Sản xuất Quốc phòng (Defense Production Act), một đạo luật thời Chiến tranh Lạnh, để buộc Anthropic phải điều chỉnh mô hình theo yêu cầu của quân đội, ngay cả khi không có sự đồng ý của hãng.
Một nguồn tin quốc phòng cấp cao mô tả đây là bước đi hiếm thấy mang tính đối đầu, nhấn mạnh rằng Lầu Năm Góc không muốn mất quyền truy cập Claude - hiện là mô hình AI duy nhất hoạt động trên hệ thống phân loại - nhưng sẵn sàng dùng biện pháp mạnh để đạt mục tiêu.
Phía Anthropic, theo một nguồn tin thân cận, không có ý định nhượng bộ các giới hạn an toàn cốt lõi. Công ty tiếp tục khẳng định lập trường rằng việc gỡ bỏ các biện pháp bảo vệ sẽ mâu thuẫn với sứ mệnh an toàn AI của mình.Tình hình hiện tại vẫn đang trong giai đoạn đàm phán khẩn cấp, với thời hạn chót chỉ còn vài ngày. Các nhà quan sát cho rằng kết quả có thể ảnh hưởng lớn đến mối quan hệ giữa chính phủ Mỹ và các công ty AI tư nhân, cũng như định hình cách tiếp cận toàn cầu về đạo đức sử dụng AI quân sự.