OpenAI đạt thỏa thuận triển khai AI trên hệ thống mật của quân đội Mỹ ngay sau khi Anthropic bị đình chỉ

Khôi Nguyên
Khôi Nguyên
Phản hồi: 0
Giám đốc điều hành OpenAI, ông Sam Altman, xác nhận công ty đã đạt được thỏa thuận với Bộ Quốc phòng Mỹ (Lầu Năm Góc). Theo đó, các mô hình trí tuệ nhân tạo (AI) của OpenAI sẽ được phép tích hợp và vận hành bên trong hệ thống mạng lưới bảo mật của quân đội Mỹ.

Chi tiết về các điều khoản an toàn được thông qua

Theo thông báo từ phía OpenAI, bản hợp đồng được ký kết có bao gồm các giới hạn về mục đích sử dụng. Cụ thể, hệ thống AI của hãng không được phép ứng dụng cho các hoạt động giám sát đại trà trong nước. Đồng thời, thỏa thuận cũng quy định rõ con người phải chịu trách nhiệm cuối cùng trong việc sử dụng vũ lực, bao gồm việc nghiêm cấm tích hợp AI vào các hệ thống vũ khí tự động hoàn toàn.

Để thực thi các điều khoản này, OpenAI thông báo sẽ phát triển các biện pháp an toàn kỹ thuật chuyên biệt nhằm kiểm soát hoạt động của mô hình. Bên cạnh đó, công ty sẽ trực tiếp phái cử các kỹ sư đến làm việc tại Lầu Năm Góc để giám sát mức độ an toàn của hệ thống trong quá trình triển khai thực tế. Ông Sam Altman cũng công khai đề nghị Bộ Quốc phòng Mỹ nên áp dụng các điều khoản tương tự cho tất cả các nhà cung cấp AI khác nhằm giảm thiểu các căng thẳng pháp lý hiện tại.

1772337413505.png

Sự khác biệt trong chính sách của Lầu Năm Góc đối với Anthropic

Việc Lầu Năm Góc chấp thuận các điều kiện của OpenAI diễn ra ngay sau khi cơ quan này đình chỉ hợp tác với Anthropic – một công ty AI khác có trụ sở tại Mỹ. Trước đó, đàm phán giữa Bộ Quốc phòng và Anthropic đã đổ vỡ khi công ty này yêu cầu các giới hạn an toàn tương tự (không vũ khí tự động và không giám sát đại trà). Ở thời điểm đó, Lầu Năm Góc cho biết các nhà thầu không có quyền tự đặt ra điều khoản về cách quân đội sử dụng sản phẩm.

Hệ quả của việc đàm phán không thành công là Tổng thống Donald Trump đã ban hành chỉ đạo yêu cầu các cơ quan liên bang ngừng sử dụng sản phẩm của Anthropic. Bộ trưởng Quốc phòng Pete Hegseth cũng chính thức liệt công ty này vào danh sách "mối đe dọa với chuỗi cung ứng" – một định danh pháp lý thường áp dụng cho các doanh nghiệp thuộc quốc gia đối địch. Hiện tại, các cơ quan chức năng chưa đưa ra bình luận chính thức về lý do Lầu Năm Góc chấp thuận các điều kiện của OpenAI nhưng lại từ chối các yêu cầu tương tự từ phía Anthropic.

1772337426555.png

Phản ứng từ Anthropic và người lao động trong ngành

Trước khi bị hủy hợp đồng, Anthropic từng đạt được thỏa thuận trị giá tối đa 200 triệu USD với quân đội Mỹ và là đơn vị đầu tiên triển khai AI trên mạng lưới mật của Bộ Quốc phòng. Phản hồi về quyết định mới nhất của chính phủ, đại diện Anthropic cho biết công ty dự kiến sẽ tiến hành các thủ tục pháp lý để khởi kiện quyết định gắn mác "rủi ro chuỗi cung ứng" tại tòa án.

Sự việc này cũng ghi nhận các phản ứng từ nhóm người lao động trong ngành công nghệ. Theo số liệu ghi nhận từ báo chí, một bức thư ngỏ mang tên "We Will Not Be Divided" (Chúng ta sẽ không bị chia rẽ) nhằm ủng hộ lập trường thiết lập rào cản an toàn AI của Anthropic đã thu thập được chữ ký của hơn 600 nhân viên Google và hơn 90 nhân viên đang làm việc tại chính OpenAI.

1772337458453.png


Bảng tóm tắt tình trạng hợp tác giữa các công ty AI và Lầu Năm Góc
Tiêu chíOpenAIAnthropic
Tình trạng hợp đồng hiện tạiĐã ký kết thỏa thuận triển khai mới.Bị đình chỉ hợp tác, đưa vào danh sách "rủi ro chuỗi cung ứng".
Điều kiện an toàn đề xuấtYêu cầu cấm vũ khí tự động và giám sát đại trà.Yêu cầu cấm vũ khí tự động và giám sát đại trà.
Phản hồi từ Bộ Quốc phòngChấp thuận, đưa các nguyên tắc vào hợp đồng.Từ chối, khẳng định nhà thầu không được tự đặt điều kiện.
Hành động tiếp theoCử kỹ sư đến giám sát hệ thống tại Lầu Năm Góc.Chuẩn bị hồ sơ khởi kiện quyết định của chính phủ.


#AnthropicxungđộtChínhphủMỹ
 
  • 1772337401284.png
    1772337401284.png
    132.1 KB · Lượt xem: 50


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL29wZW5haS1kYXQtdGhvYS10aHVhbi10cmllbi1raGFpLWFpLXRyZW4taGUtdGhvbmctbWF0LWN1YS1xdWFuLWRvaS1teS1uZ2F5LXNhdS1raGktYW50aHJvcGljLWJpLWRpbmgtY2hpLjc5Njk4Lw==
Top