Rumi
Intern Writer
Các bạn ơi, có một tin tức khá là "nóng hổi" trong giới công nghệ mà mình muốn chia sẻ ngay đây! Microsoft vừa lên tiếng trấn an các doanh nghiệp và startup đang sử dụng mô hình AI Claude của Anthropic thông qua các sản phẩm của họ. Đại diện Microsoft khẳng định rằng, dù có những lùm xùm gần đây, các bạn không cần phải lo lắng Claude sẽ bị "rút" khỏi tầm tay đâu nhé.
Đây là lần đầu tiên một ông lớn công nghệ như Microsoft đưa ra cam kết rõ ràng như vậy. Điều này diễn ra trong bối cảnh Bộ Quốc phòng Mỹ (hay còn gọi là Lầu Năm Góc) đã leo thang căng thẳng với Anthropic. Cụ thể, Lầu Năm Góc đã xếp startup AI này vào danh sách "rủi ro chuỗi cung ứng".
Lý do của sự việc này là vì Anthropic đã từ chối cấp quyền truy cập không giới hạn vào công nghệ AI của mình cho các ứng dụng mà công ty cho rằng AI của họ không thể hỗ trợ an toàn, ví dụ như giám sát hàng loạt hay vũ khí tự hành hoàn toàn. Việc bị gắn mác "rủi ro chuỗi cung ứng" thường chỉ dành cho các đối thủ nước ngoài, nên đây là một động thái khá bất ngờ.
Đối với Anthropic, việc này đồng nghĩa với việc Lầu Năm Góc không thể sử dụng sản phẩm của họ. Thậm chí, bất kỳ công ty hay cơ quan nào làm việc với Lầu Năm Góc cũng phải xác nhận rằng họ không sử dụng các mô hình của Anthropic. Tuy nhiên, Anthropic đã tuyên bố sẽ đấu tranh pháp lý đến cùng để phản đối quyết định này.
Microsoft, một đối tác lớn của nhiều cơ quan liên bang, bao gồm cả Bộ Quốc phòng, đã có động thái rất rõ ràng. Một phát ngôn viên của Microsoft cho biết, các luật sư của họ đã nghiên cứu kỹ lưỡng về quy định này và kết luận rằng các sản phẩm của Anthropic, bao gồm Claude, vẫn có thể được cung cấp cho khách hàng của Microsoft – trừ Bộ Quốc phòng – thông qua các nền tảng như M365, GitHub và Microsoft’s AI Foundry. Đồng thời, Microsoft cũng sẽ tiếp tục hợp tác với Anthropic trong các dự án không liên quan đến quốc phòng.
Điều này cũng trùng khớp với những gì CEO Dario Amodei của Anthropic đã chia sẻ. Anh ấy nhấn mạnh rằng quy định "rủi ro chuỗi cung ứng" chỉ áp dụng cho việc sử dụng Claude bởi các khách hàng như một phần trực tiếp của hợp đồng với Bộ Quốc phòng, chứ không phải tất cả các trường hợp sử dụng Claude của những khách hàng có hợp đồng đó. Ngay cả đối với các nhà thầu của Bộ Quốc phòng, việc gắn mác này cũng không thể (và không được phép) giới hạn việc sử dụng Claude hay các mối quan hệ kinh doanh với Anthropic nếu chúng không liên quan đến các hợp đồng cụ thể với Bộ Quốc phòng.
Trong khi những lùm xùm này vẫn đang diễn ra, Claude vẫn tiếp tục tăng trưởng mạnh mẽ về số lượng người dùng cá nhân, cho thấy sự kiên định của Anthropic trong việc bảo vệ các nguyên tắc đạo đức của mình.
Nguồn: https://techcrunch.com/2026/03/06/m...e-to-customers-except-the-defense-department/
Đây là lần đầu tiên một ông lớn công nghệ như Microsoft đưa ra cam kết rõ ràng như vậy. Điều này diễn ra trong bối cảnh Bộ Quốc phòng Mỹ (hay còn gọi là Lầu Năm Góc) đã leo thang căng thẳng với Anthropic. Cụ thể, Lầu Năm Góc đã xếp startup AI này vào danh sách "rủi ro chuỗi cung ứng".
Lý do của sự việc này là vì Anthropic đã từ chối cấp quyền truy cập không giới hạn vào công nghệ AI của mình cho các ứng dụng mà công ty cho rằng AI của họ không thể hỗ trợ an toàn, ví dụ như giám sát hàng loạt hay vũ khí tự hành hoàn toàn. Việc bị gắn mác "rủi ro chuỗi cung ứng" thường chỉ dành cho các đối thủ nước ngoài, nên đây là một động thái khá bất ngờ.
Đối với Anthropic, việc này đồng nghĩa với việc Lầu Năm Góc không thể sử dụng sản phẩm của họ. Thậm chí, bất kỳ công ty hay cơ quan nào làm việc với Lầu Năm Góc cũng phải xác nhận rằng họ không sử dụng các mô hình của Anthropic. Tuy nhiên, Anthropic đã tuyên bố sẽ đấu tranh pháp lý đến cùng để phản đối quyết định này.
Microsoft, một đối tác lớn của nhiều cơ quan liên bang, bao gồm cả Bộ Quốc phòng, đã có động thái rất rõ ràng. Một phát ngôn viên của Microsoft cho biết, các luật sư của họ đã nghiên cứu kỹ lưỡng về quy định này và kết luận rằng các sản phẩm của Anthropic, bao gồm Claude, vẫn có thể được cung cấp cho khách hàng của Microsoft – trừ Bộ Quốc phòng – thông qua các nền tảng như M365, GitHub và Microsoft’s AI Foundry. Đồng thời, Microsoft cũng sẽ tiếp tục hợp tác với Anthropic trong các dự án không liên quan đến quốc phòng.
Điều này cũng trùng khớp với những gì CEO Dario Amodei của Anthropic đã chia sẻ. Anh ấy nhấn mạnh rằng quy định "rủi ro chuỗi cung ứng" chỉ áp dụng cho việc sử dụng Claude bởi các khách hàng như một phần trực tiếp của hợp đồng với Bộ Quốc phòng, chứ không phải tất cả các trường hợp sử dụng Claude của những khách hàng có hợp đồng đó. Ngay cả đối với các nhà thầu của Bộ Quốc phòng, việc gắn mác này cũng không thể (và không được phép) giới hạn việc sử dụng Claude hay các mối quan hệ kinh doanh với Anthropic nếu chúng không liên quan đến các hợp đồng cụ thể với Bộ Quốc phòng.
Trong khi những lùm xùm này vẫn đang diễn ra, Claude vẫn tiếp tục tăng trưởng mạnh mẽ về số lượng người dùng cá nhân, cho thấy sự kiên định của Anthropic trong việc bảo vệ các nguyên tắc đạo đức của mình.
Nguồn: https://techcrunch.com/2026/03/06/m...e-to-customers-except-the-defense-department/