Sự thỏa hiệp của con người (Anthropic)

Mr. Darcy
Mr. Darcy
Phản hồi: 0

Mr. Darcy

Editor
Thành viên BQT
Anthropic từng được xem là công ty AI đặt an toàn lên hàng đầu. CEO Dario Amodei nhiều lần nói rằng họ chấp nhận chậm hơn đối thủ vì ưu tiên kiểm soát rủi ro. Chính vì quá thận trọng mà họ từng mất lợi thế ban đầu khi ChatGPT ra mắt sớm và chiếm thị trường.

Nhưng ngày 25/02, Anthropic bất ngờ điều chỉnh lập trường.

Công ty tuyên bố sẽ không còn tuân thủ nghiêm ngặt Chính sách Mở rộng Có trách nhiệm mà họ đưa ra từ năm 2023. Trước đây, chính sách này quy định rằng nếu tốc độ phát triển mô hình vượt quá khả năng kiểm soát rủi ro, họ sẽ tạm dừng mở rộng hoặc phát hành phiên bản mới. Đây được xem là tuyên ngôn chống lại tư duy “chạy đua bằng mọi giá” trong ngành AI.

Theo phiên bản mới, Anthropic không còn cam kết đơn phương dừng các mô hình có rủi ro cao. Thay vào đó, việc trì hoãn chỉ xảy ra trong một số trường hợp cụ thể, ví dụ khi họ đang dẫn đầu thị trường. Do không có tiêu chí rõ ràng thế nào là “dẫn đầu”, nhiều người cho rằng rào cản an toàn trước đây đã được nới lỏng đáng kể.
1772119714931.png

Dù vậy, công ty vẫn hứa minh bạch hơn về kiểm thử bảo mật, công bố báo cáo rủi ro định kỳ từ ba đến sáu tháng, và xây dựng lộ trình an toàn dài hạn. Họ cũng cam kết đầu tư cho bảo mật ở mức tương đương hoặc cao hơn các đối thủ.

Vì sao thay đổi lúc này?

Nhà khoa học trưởng Jared Kaplan thừa nhận rằng việc tự trói mình trong khi đối thủ tăng tốc là không hợp lý. Theo ông, dừng huấn luyện mô hình không có lợi cho ai trong bối cảnh AI phát triển quá nhanh. Ông khẳng định đây không phải là quay lưng với an toàn, mà là phản ứng thực tế trước môi trường cạnh tranh và chính trị.

Anthropic từng vận động mạnh cho luật AI ở Mỹ. Một số bang như California và Colorado đã ban hành quy định nghiêm ngặt. Nhưng ở cấp liên bang, xu hướng lại ưu tiên cạnh tranh và tăng trưởng kinh tế hơn là siết chặt kiểm soát. Điều đó khiến kỳ vọng về một khung pháp lý thống nhất gần như bế tắc.

Có người cho rằng Anthropic thực sự lý tưởng về an toàn. Người khác lại nhìn nhận thực tế hơn: nếu luật siết chặt, các công ty lớn với hệ thống bảo mật hoàn chỉnh sẽ có lợi thế, còn startup nhỏ và dự án mã nguồn mở sẽ gặp khó khăn.

Dù động cơ là gì, thực tế là Anthropic đang bước vào cuộc chiến khốc liệt với các đối thủ lớn.

Họ vừa hoàn tất vòng gọi vốn 30 tỷ USD, được định giá 380 tỷ USD. Áp lực tăng trưởng cực lớn: mục tiêu doanh thu năm 2026 là 18 tỷ USD, cao gấp bốn lần năm 2025, và có thể lên tới 55 tỷ USD vào năm 2027. Khoảng 80% doanh thu đến từ khách hàng doanh nghiệp, đặc biệt là công cụ lập trình Claude Code.

Trong khi đó, đối thủ cũng tăng tốc mạnh với các công cụ lập trình AI và mô hình mới liên tục ra mắt.

Khi áp lực cạnh tranh và kỳ vọng nhà đầu tư ngày càng lớn, việc nới lỏng các cam kết an toàn có thể là bước đi đầu tiên để Anthropic lao vào cuộc đua tốc độ toàn diện.

Đây không chỉ là câu chuyện về chính sách AI. Đây là câu chuyện quen thuộc của con người: lý tưởng luôn đẹp cho đến khi thị trường bắt đầu gây sức ép.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3N1LXRob2EtaGllcC1jdWEtY29uLW5ndW9pLWFudGhyb3BpYy43OTU5Ni8=
Top