DeepSeek giới thiệu phương pháp mới cải thiện khả năng suy luận của mô hình AI

Sóng AI
Sóng AI
Phản hồi: 0

Sóng AI

Writer
339z7r0R45L02UK2yUs2.webp


- DeepSeek hợp tác với Đại học Thanh Hoa phát triển kỹ thuật kết hợp mô hình phần thưởng tạo sinh (GRM) và tự điều chỉnh phê bình có nguyên tắc để cải thiện khả năng suy luận của mô hình ngôn ngữ lớn (LLM).
- Phương pháp mới giúp LLM đưa ra kết quả tốt hơn và nhanh hơn cho các truy vấn chung.
- Mô hình DeepSeek-GRM vượt trội so với các phương pháp hiện có, đạt hiệu suất cạnh tranh với các mô hình phần thưởng công khai mạnh mẽ.
- DeepSeek dự định mở nguồn các mô hình GRM nhưng chưa công bố thời gian cụ thể.
- Có tin đồn DeepSeek-R2, phiên bản kế tiếp của R1, có thể ra mắt trong tháng này.
- DeepSeek giữ im lặng về tin đồn ra mắt R2, một tài khoản dịch vụ khách hàng phủ nhận thông tin này trong nhóm chat với khách hàng doanh nghiệp.
- Công ty nâng cấp mô hình V3 (DeepSeek-V3-0324) với khả năng suy luận nâng cao, phát triển web front-end tối ưu và kỹ năng viết tiếng Trung được cải thiện.
- DeepSeek mở nguồn 5 kho mã nguồn vào tháng 2, cho phép các nhà phát triển đóng góp vào quá trình phát triển phần mềm.
- Liang Wenfeng, nhà sáng lập 40 tuổi, công bố nghiên cứu kỹ thuật về "native sparse attention" để cải thiện hiệu quả xử lý dữ liệu lớn của LLM.
- Liang tham gia hội thảo với các doanh nhân công nghệ do Chủ tịch Tập Cận Bình chủ trì tại Bắc Kinh vào cuối tháng 2.

📌 DeepSeek, startup AI Trung Quốc thành lập năm 2023, giới thiệu phương pháp mới cải thiện khả năng suy luận của LLM. Công ty dự kiến ra mắt mô hình R2 trong tháng 4/2025, thu hút sự chú ý toàn cầu sau thành công của R1. DeepSeek tiếp tục tập trung vào nghiên cứu và phát triển, hứa hẹn mang lại những tiến bộ đáng kể trong lĩnh vực AI.




Nguồn: Songai.vn
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top