Dũng Đỗ
Writer
Google vừa công bố phiên bản mới của mô hình AI Gemini, mang tên Gemini 2.0 Flash Thinking, với điểm nhấn là khả năng "lập luận" và giải thích cách thức đưa ra câu trả lời cho các câu hỏi phức tạp. Đây được xem là động thái của Google nhằm cạnh tranh trực tiếp với các mô hình AI có khả năng tương tự như OpenAI o1 và DeepSeek R1.
Gemini 2.0 Flash Thinking: "Tư duy" như thế nào?
Từ ngày 6/2, người dùng có thể trải nghiệm Gemini 2.0 Flash Thinking trên ứng dụng, trình duyệt web, cũng như một phiên bản riêng có thể tương tác với các ứng dụng "cây nhà lá vườn" của Google như YouTube, Search và Maps.
Gemini 2.0 Flash Thinking là mô hình AI lý luận, có khả năng giải thích cách nó trả lời câu hỏi với độ khó cao, đòi hỏi tổng hợp và phân tích từ nhiều nguồn thông tin. Mô hình này hoạt động bằng cách chia nhỏ vấn đề thành các bước nhỏ hơn, dễ quản lý hơn, cho phép hệ thống "suy nghĩ" về yêu cầu của người dùng trước khi đưa ra kết quả. Phương pháp này giúp câu trả lời cuối cùng có độ chính xác cao hơn, gần với yêu cầu hơn, dù sẽ mất nhiều thời gian hơn so với thông thường.
Jeff Dean, nhà khoa học trưởng của Google DeepMind, cho biết mô hình được "đào tạo để sử dụng suy nghĩ nhằm củng cố lý luận của nó". Ông cũng chia sẻ video minh họa quá trình Gemini 2.0 Flash Thinking giải quyết một bài toán vật lý bằng cách "suy nghĩ" qua một loạt các bước trước khi đưa ra giải pháp.
Gemini 2.0 Pro và Flash: Nâng cấp toàn diện
Cùng ngày, Google cũng giới thiệu phiên bản thử nghiệm Gemini 2.0 Pro, kế thừa Gemini 1.5 Pro với "tính thực tế tốt hơn" và "hiệu suất mạnh hơn" cho các tác vụ liên quan đến mã hóa và toán học. Gemini 2.0 Pro được mô tả là "mô hình có năng lực tốt nhất từ trước đến nay" của Google, và sẽ khả dụng cho người dùng ứng dụng Advanced Gemini và những người có quyền truy cập Vertex AI và AI Studio.
Trong khi đó, Gemini 2.0 Flash, phiên bản mới nhất của mô hình AI hiệu suất cao của Google, sẽ có sẵn cho các nhà phát triển trong AI Studio và Vertex AI.
Sundar Pichai, CEO Google, khẳng định: "Flash 2.0 nằm trong số ít mô hình hiệu quả nhất hiện có, kể cả khi so sánh với V3 và R1 của DeepSeek. Tôi nghĩ, chúng tôi có toàn bộ thế mạnh về phát triển, tối ưu hóa đầu cuối lẫn chi phí cho mỗi truy vấn".
Gemini 2.0 Flash-Lite: Phiên bản giá rẻ cạnh tranh DeepSeek
Trước sức ép từ DeekSeek, Google đã nhanh chóng ra mắt mô hình giá rẻ 2.0 Flash-Lite, có tốc độ và giá ngang 1.5 Flash nhưng được giới thiệu là vượt trội ở "hầu hết điểm chuẩn yêu cầu". Gemini 2.0 Flash-Lite sẽ có bản Preview trên AI Studio và Vertex AI của Google.
Loạt sản phẩm AI mới được tung ra trong bối cảnh Google dự kiến đầu tư thêm 75 tỷ USD cho nhóm phát triển AI trong năm nay, tăng mạnh so với 32,3 tỷ USD của năm 2023. Google đang thể hiện quyết tâm cạnh tranh với các "ông lớn" khác trong lĩnh vực AI như OpenAI, Microsoft, Meta và Anthropic (do Amazon hậu thuẫn).
Với việc ra mắt Gemini 2.0 Flash Thinking, Pro và Flash-Lite, Google không chỉ nâng cấp khả năng của mô hình AI mà còn thể hiện rõ chiến lược cạnh tranh trong cuộc đua AI đang ngày càng gay cấn. Khả năng "lập luận" của Gemini 2.0 Flash Thinking hứa hẹn sẽ mở ra những ứng dụng mới cho AI trong nhiều lĩnh vực.
Gemini 2.0 Flash Thinking: "Tư duy" như thế nào?
Từ ngày 6/2, người dùng có thể trải nghiệm Gemini 2.0 Flash Thinking trên ứng dụng, trình duyệt web, cũng như một phiên bản riêng có thể tương tác với các ứng dụng "cây nhà lá vườn" của Google như YouTube, Search và Maps.
Gemini 2.0 Flash Thinking là mô hình AI lý luận, có khả năng giải thích cách nó trả lời câu hỏi với độ khó cao, đòi hỏi tổng hợp và phân tích từ nhiều nguồn thông tin. Mô hình này hoạt động bằng cách chia nhỏ vấn đề thành các bước nhỏ hơn, dễ quản lý hơn, cho phép hệ thống "suy nghĩ" về yêu cầu của người dùng trước khi đưa ra kết quả. Phương pháp này giúp câu trả lời cuối cùng có độ chính xác cao hơn, gần với yêu cầu hơn, dù sẽ mất nhiều thời gian hơn so với thông thường.
Jeff Dean, nhà khoa học trưởng của Google DeepMind, cho biết mô hình được "đào tạo để sử dụng suy nghĩ nhằm củng cố lý luận của nó". Ông cũng chia sẻ video minh họa quá trình Gemini 2.0 Flash Thinking giải quyết một bài toán vật lý bằng cách "suy nghĩ" qua một loạt các bước trước khi đưa ra giải pháp.
Gemini 2.0 Pro và Flash: Nâng cấp toàn diện
Cùng ngày, Google cũng giới thiệu phiên bản thử nghiệm Gemini 2.0 Pro, kế thừa Gemini 1.5 Pro với "tính thực tế tốt hơn" và "hiệu suất mạnh hơn" cho các tác vụ liên quan đến mã hóa và toán học. Gemini 2.0 Pro được mô tả là "mô hình có năng lực tốt nhất từ trước đến nay" của Google, và sẽ khả dụng cho người dùng ứng dụng Advanced Gemini và những người có quyền truy cập Vertex AI và AI Studio.
Trong khi đó, Gemini 2.0 Flash, phiên bản mới nhất của mô hình AI hiệu suất cao của Google, sẽ có sẵn cho các nhà phát triển trong AI Studio và Vertex AI.
Sundar Pichai, CEO Google, khẳng định: "Flash 2.0 nằm trong số ít mô hình hiệu quả nhất hiện có, kể cả khi so sánh với V3 và R1 của DeepSeek. Tôi nghĩ, chúng tôi có toàn bộ thế mạnh về phát triển, tối ưu hóa đầu cuối lẫn chi phí cho mỗi truy vấn".
Gemini 2.0 Flash-Lite: Phiên bản giá rẻ cạnh tranh DeepSeek
Trước sức ép từ DeekSeek, Google đã nhanh chóng ra mắt mô hình giá rẻ 2.0 Flash-Lite, có tốc độ và giá ngang 1.5 Flash nhưng được giới thiệu là vượt trội ở "hầu hết điểm chuẩn yêu cầu". Gemini 2.0 Flash-Lite sẽ có bản Preview trên AI Studio và Vertex AI của Google.
Loạt sản phẩm AI mới được tung ra trong bối cảnh Google dự kiến đầu tư thêm 75 tỷ USD cho nhóm phát triển AI trong năm nay, tăng mạnh so với 32,3 tỷ USD của năm 2023. Google đang thể hiện quyết tâm cạnh tranh với các "ông lớn" khác trong lĩnh vực AI như OpenAI, Microsoft, Meta và Anthropic (do Amazon hậu thuẫn).
Với việc ra mắt Gemini 2.0 Flash Thinking, Pro và Flash-Lite, Google không chỉ nâng cấp khả năng của mô hình AI mà còn thể hiện rõ chiến lược cạnh tranh trong cuộc đua AI đang ngày càng gay cấn. Khả năng "lập luận" của Gemini 2.0 Flash Thinking hứa hẹn sẽ mở ra những ứng dụng mới cho AI trong nhiều lĩnh vực.