Vì sao doanh nghiệp chọn Claude 4 thay vì ChatGPT?

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0

Nguyễn Hoàng

Intern Writer
Nếu một công ty AI ưu tiên an toàn hơn lợi nhuận, liệu họ có thể thành công trên thương trường vốn đầy cạnh tranh và bị chi phối bởi tốc độ tăng trưởng? Câu chuyện của Anthropic đang khiến giới công nghệ phải suy nghĩ lại.

Khi lòng nhiệt thành thành… công cụ bán hàng​

Anthropic, được sáng lập bởi những con người rời bỏ OpenAI vì lo ngại về an toàn AI, khởi đầu như một nhóm “truyền giáo” công nghệ, họ say mê lý tưởng, không đặt lợi nhuận làm đầu. Nhưng rồi họ đã đi đến một nghịch lý: chính sứ mệnh đặt đạo đức và an toàn lên hàng đầu lại giúp họ thu hút khách hàng và hái ra tiền.

Người dẫn dắt Anthropic là Dario Amodei, người từng rời OpenAI vì bất đồng trong định hướng phát triển. Giữa làn sóng chỉ trích từ những tên tuổi lớn như Jensen Huang (Nvidia) hay David Sacks (VC thân cận của ông Trump), ông Amodei vẫn giữ vững lập trường: phát triển AI phải đặt sự an toàn và minh bạch lên trước.

1753341132699.png
Điều đáng nói là giữa lúc dư luận rối ren, Anthropic vẫn đang phát triển mạnh mẽ. Doanh thu định kỳ hàng năm đã vượt mốc 4 tỷ đô la, cao gấp 4 lần so với năm ngoái. Claude, dòng chatbot của họ, đang được giới lập trình viên và doanh nghiệp B2B đón nhận rộng rãi nhờ sự ổn định, an toàn và khả năng giải thích quyết định của AI.

Làm AI an toàn nhưng vẫn… hái ra tiền​

Không tạo ra chatbot để giải trí hay câu giờ người dùng, Anthropic đi theo hướng ngược lại: tập trung vào hỗ trợ công việc. Claude 4, phiên bản mới nhất, được thiết kế để làm việc hiệu quả, có thể dùng các chương trình máy tính khác và duy trì hoạt động lâu dài. Các công ty thuê Claude để xử lý những việc vốn cần kỹ năng và trả lương cao, một bước tiết kiệm đáng kể.

Công ty vẫn ưu tiên thử nghiệm kỹ càng về an toàn, dù điều đó khiến họ ra mắt sản phẩm chậm hơn đối thủ. Claude Code, bot lập trình, ban đầu chỉ dành cho nội bộ nhưng rồi “bỗng dưng” được thương mại hóa vì quá hữu ích.

Tuy vậy, những mục tiêu cao cả này không thể tách rời thực tế: chi phí đào tạo mô hình AI là cực lớn. Anthropic buộc phải liên tục gọi vốn, và đang thương thảo các khoản đầu tư có thể đẩy định giá lên 100 tỷ đô la. Nhưng đi kèm theo đó là những giằng co đạo đức. Một tin nhắn Slack bị rò rỉ cho thấy Amodei miễn cưỡng đồng ý nhận đầu tư từ các quốc gia vùng Vịnh, nơi ông từng lo ngại về vấn đề an ninh và giá trị.

Khi truyền giáo phải học cách sống sót​

Sự mâu thuẫn nội tại của Anthropic không phải là điểm yếu. Trái lại, chính sự "tự vấn" liên tục ấy lại giúp công ty đứng vững giữa thế giới AI đang bùng nổ. Khách hàng doanh nghiệp, vốn cũng đang đau đầu vì trách nhiệm xã hội – lại thích sự “đạo đức” và minh bạch của Claude.

Amodei cho rằng AI không chỉ là công cụ tăng năng suất, mà còn là nguồn lực quyền lực, cần được kiểm soát chặt chẽ và được đặt trong tay các nền dân chủ. Ông cảnh báo nếu AI trở thành công cụ cho những nước như Trung Quốc, thì sự mất kiểm soát sẽ là điều không thể tránh khỏi.

Anthropic không phải là người chiến thắng doanh thu lớn nhất, nhưng đang là công ty tạo ra xu hướng về cách làm AI một cách có trách nhiệm.

Bạn muốn AI thông minh hay muốn AI tử tế? Vì có thể cả thế giới sẽ phải sống cùng nó rất lâu. (Economist)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL3ZpLXNhby1kb2FuaC1uZ2hpZXAtY2hvbi1jbGF1ZGUtNC10aGF5LXZpLWNoYXRncHQuNjU2OTgv
Top