Anthropic và Lầu Năm Góc đối đầu: Cuộc chiến kiểm soát AI quân sự

Derpy
Derpy
Phản hồi: 0

Derpy

Intern Writer
Chào các bạn, dạo gần đây mình thấy có một câu chuyện khá "nóng" trong giới công nghệ và quốc phòng Mỹ, đó là vụ lùm xùm giữa Anthropic – công ty đứng sau chatbot AI Claude đình đám – và quân đội Hoa Kỳ. Nghe có vẻ căng thẳng đúng không, chúng ta cùng tìm hiểu xem sao nhé!

Theo thông tin từ Bloomberg vào ngày 18 tháng 3 vừa rồi, chính quyền cựu Tổng thống Trump đã tuyên bố sẽ dùng mọi biện pháp pháp lý để loại bỏ công nghệ AI của Anthropic khỏi tất cả các cơ quan chính phủ Mỹ. Nguyên nhân chính là do hai bên không tìm được tiếng nói chung về các điều khoản sử dụng công nghệ AI của Anthropic.
1773807791212.png

Bộ Tư pháp Mỹ, đại diện cho chính phủ, đã khẳng định trong hồ sơ tòa án rằng các điều khoản dịch vụ AI của Anthropic là "không thể chấp nhận được" vì lý do an ninh quốc gia.

Anthropic, với sản phẩm chủ lực là chatbot AI Claude, đã chủ động đệ đơn kiện. Công ty muốn ngăn Bộ Quốc phòng Mỹ đưa mình vào danh sách các doanh nghiệp gây rủi ro cho chuỗi cung ứng của Mỹ. Đây chính là động thái đẩy căng thẳng giữa hai bên lên một tầm cao mới, xoay quanh việc quân đội sử dụng AI.

Anthropic mong muốn có thể kiểm soát cách thức sản phẩm của mình được triển khai. Họ lập luận rằng một cuộc chiến pháp lý kéo dài có thể khiến công ty thiệt hại hàng tỷ USD. Hiện tại, Anthropic đang yêu cầu tòa án ban hành lệnh cấm sơ bộ để ngăn chặn lệnh cấm của chính phủ có hiệu lực trong thời gian vụ kiện diễn ra.

Các luật sư của Bộ Tư pháp Mỹ cho biết, trong quá trình đàm phán hợp đồng gần đây, Bộ Quốc phòng đã muốn bổ sung một điều khoản cho phép Lầu Năm Góc sử dụng công nghệ của Anthropic cho bất kỳ mục đích hợp pháp nào. Tuy nhiên, Anthropic đã "từ chối" điều khoản này, viện dẫn chính sách sử dụng Claude của mình.

Bộ Tư pháp Mỹ cũng bày tỏ sự nghi ngờ về Anthropic. Họ cho rằng, xuyên suốt quá trình đàm phán, "hiệu suất tổng thể của Anthropic đã khiến Bộ Quốc phòng đặt câu hỏi liệu Anthropic có còn là một đối tác đáng tin cậy và sẵn sàng ký kết hợp đồng trong lĩnh vực cực kỳ nhạy cảm này hay không".

Một mối lo ngại lớn khác của Bộ Tư pháp là việc cho phép Anthropic tiếp tục tiếp cận công nghệ và hệ thống tác chiến của họ "sẽ mang lại rủi ro không thể chấp nhận được cho chuỗi cung ứng của Bộ Quốc phòng".

Họ giải thích thêm rằng, "các hệ thống AI rất dễ bị thao túng. Nếu Anthropic tự ý cho rằng 'giới hạn đỏ' của công ty bị vượt qua, họ có khả năng cố gắng vô hiệu hóa công nghệ của mình hoặc thay đổi hành vi của mô hình trước hoặc trong các hoạt động tác chiến".

Theo chỉ thị của cựu Tổng thống Trump, Lầu Năm Góc và các cơ quan liên bang khác đang chuyển giao các hoạt động AI của mình cho các nhà cung cấp khác. Động thái này dựa trên đánh giá rủi ro thường áp dụng cho các công ty nước ngoài. Trước đó, Anthropic từng yêu cầu chính phủ đảm bảo rằng AI của họ sẽ không được sử dụng để giám sát quy mô lớn người dân Mỹ hoặc triển khai vũ khí tự hành.

Vào ngày 27 tháng 2, Bộ trưởng Quốc phòng Mỹ Hegseth đã đăng tải trên mạng xã hội rằng quân đội Mỹ sẽ tiếp tục sử dụng các công cụ công nghệ của Anthropic, "nhưng không quá sáu tháng, để chuyển đổi suôn sẻ sang một nhà cung cấp tốt hơn và mang tinh thần yêu nước hơn".

Có vẻ như đây là một cuộc đối đầu khá gay cấn giữa đạo đức AI và nhu cầu an ninh quốc gia, các bạn nhỉ? Chúng ta hãy cùng chờ xem vụ việc này sẽ diễn biến ra sao trong thời gian tới nhé.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2FudGhyb3BpYy12YS1sYXUtbmFtLWdvYy1kb2ktZGF1LWN1b2MtY2hpZW4ta2llbS1zb2F0LWFpLXF1YW4tc3UuODA3Mjkv
Top