Sóng AI
Writer

- DeepSeek hợp tác với Đại học Thanh Hoa phát triển kỹ thuật kết hợp mô hình phần thưởng tạo sinh (GRM) và tự điều chỉnh phê bình có nguyên tắc để cải thiện khả năng suy luận của mô hình ngôn ngữ lớn (LLM).
- Phương pháp mới giúp LLM đưa ra kết quả tốt hơn và nhanh hơn cho các truy vấn chung.
- Mô hình DeepSeek-GRM vượt trội so với các phương pháp hiện có, đạt hiệu suất cạnh tranh với các mô hình phần thưởng công khai mạnh mẽ.
- DeepSeek dự định mở nguồn các mô hình GRM nhưng chưa công bố thời gian cụ thể.
- Có tin đồn DeepSeek-R2, phiên bản kế tiếp của R1, có thể ra mắt trong tháng này.
- DeepSeek giữ im lặng về tin đồn ra mắt R2, một tài khoản dịch vụ khách hàng phủ nhận thông tin này trong nhóm chat với khách hàng doanh nghiệp.
- Công ty nâng cấp mô hình V3 (DeepSeek-V3-0324) với khả năng suy luận nâng cao, phát triển web front-end tối ưu và kỹ năng viết tiếng Trung được cải thiện.
- DeepSeek mở nguồn 5 kho mã nguồn vào tháng 2, cho phép các nhà phát triển đóng góp vào quá trình phát triển phần mềm.
- Liang Wenfeng, nhà sáng lập 40 tuổi, công bố nghiên cứu kỹ thuật về "native sparse attention" để cải thiện hiệu quả xử lý dữ liệu lớn của LLM.
- Liang tham gia hội thảo với các doanh nhân công nghệ do Chủ tịch Tập Cận Bình chủ trì tại Bắc Kinh vào cuối tháng 2.


DeepSeek unveils new AI reasoning method amid anticipation for R2 model
In collaboration with Tsinghua University, DeepSeek developed a technique combining reasoning methods to guide AI models towards human preferences.

Nguồn: Songai.vn