Derpy
Intern Writer
Chào các bạn, hôm nay mình có một câu chuyện khá "căng" liên quan đến công nghệ AI và an ninh quốc gia mà mình muốn chia sẻ cùng mọi người đây. Chuyện là công ty Anthropic, cái tên đứng sau chatbot AI Claude mà chúng ta vẫn hay dùng, đang vướng vào một cuộc tranh chấp pháp lý khá gay gắt với chính phủ Mỹ đấy.
Theo thông tin từ Bloomberg vào ngày 18/3, chính quyền cựu Tổng thống Trump đã tuyên bố sẽ dùng mọi biện pháp pháp lý để loại bỏ công nghệ AI của Anthropic khỏi tất cả các cơ quan chính phủ Mỹ. Nguyên nhân chính là do hai bên không tìm được tiếng nói chung về các điều khoản sử dụng công nghệ AI này.
Bộ Tư pháp Mỹ, đại diện cho chính phủ, đã chia sẻ trong hồ sơ tòa án vào thứ Ba rằng các điều khoản dịch vụ AI của Anthropic bị coi là "không thể chấp nhận được vì lý do an ninh quốc gia". Nghe có vẻ nghiêm trọng đúng không nào?
Anthropic thì không chịu ngồi yên đâu. Công ty này đã đệ đơn kiện, muốn ngăn Bộ Quốc phòng liệt mình vào danh sách các doanh nghiệp gây rủi ro cho chuỗi cung ứng của Mỹ. Họ muốn có quyền kiểm soát cách sản phẩm của mình được triển khai, và cho rằng một cuộc chiến pháp lý kéo dài có thể khiến họ mất đi hàng tỷ USD. Hiện tại, Anthropic đang yêu cầu tòa án ban hành lệnh cấm sơ bộ để ngăn chặn lệnh cấm của chính phủ có hiệu lực trong thời gian vụ kiện diễn ra.
Luật sư của Bộ Tư pháp Mỹ cũng tiết lộ thêm rằng, vào đầu năm 2026, Bộ Quốc phòng Mỹ đã đàm phán với Anthropic về hợp đồng, muốn bổ sung một điều khoản cho phép Lầu Năm Góc sử dụng công nghệ của họ cho "bất kỳ mục đích hợp pháp nào". Tuy nhiên, Anthropic đã "từ chối" điều khoản này, viện dẫn chính sách sử dụng của Claude.
Bộ Tư pháp Mỹ bày tỏ sự nghi ngờ về Anthropic, cho rằng "hiệu suất tổng thể của Anthropic trong suốt quá trình đàm phán đã khiến Bộ Quốc phòng đặt câu hỏi liệu Anthropic có còn là một đối tác đáng tin cậy và sẵn sàng ký hợp đồng trong lĩnh vực nhạy cảm cao này hay không".
Họ còn lo ngại rằng việc cho phép Anthropic tiếp tục tiếp cận công nghệ và hệ thống tác chiến của mình "sẽ mang lại rủi ro không thể chấp nhận được cho chuỗi cung ứng của Bộ Quốc phòng". Một luật sư của Bộ Tư pháp Mỹ đã nhấn mạnh rằng "hệ thống AI rất dễ bị thao túng, và nếu Anthropic tự ý cho rằng 'giới hạn đỏ' của công ty bị vượt qua, họ có thể cố gắng vô hiệu hóa công nghệ của mình hoặc thay đổi hành vi của mô hình trước hoặc trong các hoạt động tác chiến".
Theo chỉ thị của cựu Tổng thống Trump, Lầu Năm Góc và các cơ quan liên bang khác đang chuyển giao các hoạt động AI của mình cho các nhà cung cấp khác. Động thái này dựa trên đánh giá rủi ro thường áp dụng cho các công ty nước ngoài. Trước đó, Anthropic từng yêu cầu chính phủ đảm bảo rằng AI của họ sẽ không được sử dụng để giám sát quy mô lớn người dân Mỹ hoặc triển khai vũ khí tự hành.
Bộ trưởng Quốc phòng Hegseth cũng đã chia sẻ trên mạng xã hội vào ngày 27 tháng 2 rằng quân đội Mỹ sẽ tiếp tục sử dụng các công cụ công nghệ của Anthropic, nhưng "không quá sáu tháng, để chuyển đổi suôn sẻ sang một nhà cung cấp tốt hơn và yêu nước hơn".
Đây thực sự là một câu chuyện phức tạp, cho chúng ta thấy những thách thức lớn trong việc cân bằng giữa đổi mới công nghệ AI, đạo đức sử dụng và an ninh quốc gia. Mình nghĩ, đây sẽ là một chủ đề còn được bàn tán nhiều trong thời gian tới đấy các bạn ạ.
Theo thông tin từ Bloomberg vào ngày 18/3, chính quyền cựu Tổng thống Trump đã tuyên bố sẽ dùng mọi biện pháp pháp lý để loại bỏ công nghệ AI của Anthropic khỏi tất cả các cơ quan chính phủ Mỹ. Nguyên nhân chính là do hai bên không tìm được tiếng nói chung về các điều khoản sử dụng công nghệ AI này.
Bộ Tư pháp Mỹ, đại diện cho chính phủ, đã chia sẻ trong hồ sơ tòa án vào thứ Ba rằng các điều khoản dịch vụ AI của Anthropic bị coi là "không thể chấp nhận được vì lý do an ninh quốc gia". Nghe có vẻ nghiêm trọng đúng không nào?
Anthropic thì không chịu ngồi yên đâu. Công ty này đã đệ đơn kiện, muốn ngăn Bộ Quốc phòng liệt mình vào danh sách các doanh nghiệp gây rủi ro cho chuỗi cung ứng của Mỹ. Họ muốn có quyền kiểm soát cách sản phẩm của mình được triển khai, và cho rằng một cuộc chiến pháp lý kéo dài có thể khiến họ mất đi hàng tỷ USD. Hiện tại, Anthropic đang yêu cầu tòa án ban hành lệnh cấm sơ bộ để ngăn chặn lệnh cấm của chính phủ có hiệu lực trong thời gian vụ kiện diễn ra.
Luật sư của Bộ Tư pháp Mỹ cũng tiết lộ thêm rằng, vào đầu năm 2026, Bộ Quốc phòng Mỹ đã đàm phán với Anthropic về hợp đồng, muốn bổ sung một điều khoản cho phép Lầu Năm Góc sử dụng công nghệ của họ cho "bất kỳ mục đích hợp pháp nào". Tuy nhiên, Anthropic đã "từ chối" điều khoản này, viện dẫn chính sách sử dụng của Claude.
Bộ Tư pháp Mỹ bày tỏ sự nghi ngờ về Anthropic, cho rằng "hiệu suất tổng thể của Anthropic trong suốt quá trình đàm phán đã khiến Bộ Quốc phòng đặt câu hỏi liệu Anthropic có còn là một đối tác đáng tin cậy và sẵn sàng ký hợp đồng trong lĩnh vực nhạy cảm cao này hay không".
Họ còn lo ngại rằng việc cho phép Anthropic tiếp tục tiếp cận công nghệ và hệ thống tác chiến của mình "sẽ mang lại rủi ro không thể chấp nhận được cho chuỗi cung ứng của Bộ Quốc phòng". Một luật sư của Bộ Tư pháp Mỹ đã nhấn mạnh rằng "hệ thống AI rất dễ bị thao túng, và nếu Anthropic tự ý cho rằng 'giới hạn đỏ' của công ty bị vượt qua, họ có thể cố gắng vô hiệu hóa công nghệ của mình hoặc thay đổi hành vi của mô hình trước hoặc trong các hoạt động tác chiến".
Theo chỉ thị của cựu Tổng thống Trump, Lầu Năm Góc và các cơ quan liên bang khác đang chuyển giao các hoạt động AI của mình cho các nhà cung cấp khác. Động thái này dựa trên đánh giá rủi ro thường áp dụng cho các công ty nước ngoài. Trước đó, Anthropic từng yêu cầu chính phủ đảm bảo rằng AI của họ sẽ không được sử dụng để giám sát quy mô lớn người dân Mỹ hoặc triển khai vũ khí tự hành.
Bộ trưởng Quốc phòng Hegseth cũng đã chia sẻ trên mạng xã hội vào ngày 27 tháng 2 rằng quân đội Mỹ sẽ tiếp tục sử dụng các công cụ công nghệ của Anthropic, nhưng "không quá sáu tháng, để chuyển đổi suôn sẻ sang một nhà cung cấp tốt hơn và yêu nước hơn".
Đây thực sự là một câu chuyện phức tạp, cho chúng ta thấy những thách thức lớn trong việc cân bằng giữa đổi mới công nghệ AI, đạo đức sử dụng và an ninh quốc gia. Mình nghĩ, đây sẽ là một chủ đề còn được bàn tán nhiều trong thời gian tới đấy các bạn ạ.