Giờ đây, trí tuệ nhân tạo có thể tự kiểm tra mã nguồn; Opus 4.7 giải quyết vấn đề "đống mã rác"

Thoại Viết Hoàng
Thoại Viết Hoàng
Phản hồi: 0
Anthropic vừa ra mô hình mới, nhưng cố tình làm nó... yếu hơn.

Hầu hết các công ty AI khi ra mắt sản phẩm đều nói: "Đây là thứ mạnh nhất chúng tôi có." Anthropic thì nói ngược lại: "Chúng tôi có thứ mạnh hơn, nhưng chưa thể đưa ra cho bạn."

Và đó chính xác là những gì xảy ra với Claude Opus 4.7, ra mắt ngày 17/4/2026.

Trước Opus 4.7, Anthropic vừa công bố một mô hình nội bộ tên Mythos, nhưng phải tạm dừng phát hành vì khả năng tấn công mạng của nó quá mạnh. Thay vào đó, họ ra Opus 4.7 như một phiên bản thử nghiệm, trong đó một số khả năng bảo mật mạng đã bị cố ý giới hạn trong quá trình huấn luyện.

Nghe lạ, nhưng đây không phải sự thừa nhận thất bại. Đây là một lựa chọn có chủ ý.

Opus 4.7 thực sự mạnh hơn ở đâu?
1776388208771.png

Về lập trình, Opus 4.7 đạt 87,6% trên bài kiểm tra SWE-Bench Verified, so với 80,8% của phiên bản trước. Trên bài kiểm tra khó hơn là SWE-Bench Pro, con số là 64,3% so với 53,4%. Dịch ra ngôn ngữ thực tế: bạn có thể giao cho nó những tác vụ lập trình phức tạp hơn, và nó sẽ xử lý kỹ càng hơn, tuân thủ hướng dẫn chính xác hơn, thậm chí tự kiểm tra đầu ra trước khi báo cáo.

Về hình ảnh, mô hình giờ nhận ảnh có độ phân giải lên tới khoảng 3,75 megapixel, gấp hơn ba lần trước. Mục tiêu không phải để nhận dạng ảnh thông thường mà để AI có thể nhìn rõ màn hình phần mềm, bảng dữ liệu dày đặc hay giao diện dòng lệnh. Nếu AI không nhìn rõ "đang làm việc ở đâu", khả năng vận hành của nó gần như vô nghĩa.

Về bộ nhớ, Opus 4.7 có thể ghi nhớ các quyết định, ràng buộc và sở thích người dùng qua nhiều phiên làm việc. Đây là bước chuyển từ "nhân viên tạm thời thông minh" sang "đồng nghiệp ổn định".

Một điểm cần lưu ý nếu bạn dùng Claude thường xuyên

Opus 4.7 tuân thủ hướng dẫn theo nghĩa đen, chặt hơn hẳn các phiên bản trước. Trước đây Claude hay tự "đọc ý" và bỏ qua những yêu cầu mơ hồ hoặc mâu thuẫn. Giờ thì không. Điều này có nghĩa là các prompt cũ vốn hoạt động tốt có thể cho ra kết quả khác, đôi khi không như kỳ vọng.

Giá niêm yết không đổi: 5 USD cho mỗi triệu token đầu vào, 25 USD cho đầu ra (khoảng 129.000 và 644.000 đồng). Nhưng bộ mã hóa mới có thể khiến cùng một đoạn văn tốn nhiều token hơn từ 1 đến 1,35 lần. Cộng thêm việc mô hình "nghĩ nhiều hơn" ở chế độ mạnh, chi phí thực tế có thể cao hơn dù tên gọi vẫn vậy.

Anthropic lý giải rằng nếu mô hình làm đúng ngay từ đầu thay vì thử sai nhiều lần, tổng chi phí cho cả tác vụ vẫn thấp hơn.

Bài học lớn hơn từ cách Anthropic ra mắt sản phẩm

Các công ty AI trước nay cạnh tranh theo kiểu "tôi giỏi hơn bạn", chạy đua điểm số và tham số. Nhưng khi mô hình đủ mạnh để gây hại, logic đó bắt đầu vỡ.

Anthropic chọn hướng khác: khóa mô hình mạnh nhất lại, dùng phiên bản có kiểm soát để thử nghiệm cơ chế bảo mật, và biến sự "kiềm chế" đó thành một điểm khác biệt của sản phẩm.

Liệu thị trường có chấp nhận điều đó không, chỉ có thời gian trả lời. Nhưng ít nhất Anthropic đã đặt ra một câu hỏi mà nhiều người chưa nghĩ tới: đôi khi "biết mình không nên làm gì" quan trọng hơn "biết mình có thể làm gì".

#Opus47
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2dpby1kYXktdHJpLXR1ZS1uaGFuLXRhby1jby10aGUtdHUta2llbS10cmEtbWEtbmd1b24tb3B1cy00LTctZ2lhaS1xdXlldC12YW4tZGUtZG9uZy1tYS1yYWMuODE5MDEv
Top