Trương Quang
Writer
Nếu một mô hình AI nhỏ bé chỉ bằng 0,01% kích thước của ChatGPT có thể đánh bại nó trong khả năng lý luận, liệu “thời đại của mô hình khổng lồ” sắp kết thúc?
Nhà nghiên cứu Alexia Jolicoeur Martineau đã giới thiệu Tiny Recursive Model (TRM) mô hình chỉ có 7 triệu tham số, nhỏ hơn 0,01% so với những LLM hàng đầu, nhưng lại vượt trội về khả năng suy luận phức tạp. Công trình này không chỉ phá vỡ niềm tin rằng “kích thước quyết định sức mạnh”, mà còn gợi mở một hướng phát triển bền vững hơn cho AI: nhỏ gọn, thông minh và tự điều chỉnh.
Các LLM hiện nay thường gặp khó khi phải suy luận nhiều bước. Chúng tạo ra câu trả lời từng phần, chỉ cần một sai sót nhỏ ở đầu chuỗi là toàn bộ kết quả sau đó có thể sai lệch. Những kỹ thuật như Chain of Thought cho phép mô hình “nghĩ thành tiếng” giúp cải thiện phần nào, nhưng lại tiêu tốn tài nguyên khổng lồ.
TRM thì khác. Nó chỉ dùng một mạng nơ ron nhỏ, nhưng có khả năng tự lặp đi lặp lại để tự sửa lỗi. Mô hình nhận vào câu hỏi, dự đoán ban đầu và thông tin suy luận tiềm ẩn, sau đó tinh chỉnh suy luận này qua nhiều vòng, tối đa 16 lần, để hoàn thiện câu trả lời. Chính khả năng “tự phản biện” này giúp TRM đạt độ chính xác vượt trội, dù cực kỳ tiết kiệm tài nguyên.
TRM còn loại bỏ các giả định toán học phức tạp của thế hệ trước (HRM), chẳng hạn như yêu cầu mô hình phải “hội tụ về một điểm cố định”. Bằng cách lan truyền ngược đơn giản qua toàn bộ quá trình đệ quy, TRM vừa gọn, vừa hiệu quả hơn.
Kết quả thực nghiệm đủ khiến giới nghiên cứu phải ngạc nhiên:
Ngoài ra, Samsung còn tinh giản cơ chế huấn luyện để mô hình biết khi nào nên dừng lại, tránh tốn thời gian tính toán thừa mà vẫn giữ hiệu quả tổng thể.
Nếu những ý tưởng như TRM được ứng dụng rộng rãi, tương lai có thể chứng kiến những mô hình AI mạnh mẽ chạy trên thiết bị cá nhân, không cần đến trung tâm dữ liệu tiêu tốn hàng tỷ đô năng lượng. Và có lẽ, một ngày nào đó, chiếc điện thoại trong tay bạn sẽ sở hữu năng lực suy luận mà trước đây chỉ các siêu máy chủ mới có.
Nguồn: Artificialintelligence

Khi “bé hạt tiêu” đánh bại gã khổng lồ
Trong thế giới AI, người ta thường tin rằng “càng lớn càng tốt”. Các tập đoàn công nghệ đổ hàng tỷ USD (tương đương hơn 130 nghìn tỷ VNĐ) vào việc huấn luyện những mô hình ngôn ngữ lớn (LLM) với hàng trăm tỷ tham số. Nhưng một nghiên cứu mới từ Samsung AI Lab Montréal lại khiến cả giới công nghệ phải dừng lại suy nghĩ.Nhà nghiên cứu Alexia Jolicoeur Martineau đã giới thiệu Tiny Recursive Model (TRM) mô hình chỉ có 7 triệu tham số, nhỏ hơn 0,01% so với những LLM hàng đầu, nhưng lại vượt trội về khả năng suy luận phức tạp. Công trình này không chỉ phá vỡ niềm tin rằng “kích thước quyết định sức mạnh”, mà còn gợi mở một hướng phát triển bền vững hơn cho AI: nhỏ gọn, thông minh và tự điều chỉnh.
Các LLM hiện nay thường gặp khó khi phải suy luận nhiều bước. Chúng tạo ra câu trả lời từng phần, chỉ cần một sai sót nhỏ ở đầu chuỗi là toàn bộ kết quả sau đó có thể sai lệch. Những kỹ thuật như Chain of Thought cho phép mô hình “nghĩ thành tiếng” giúp cải thiện phần nào, nhưng lại tiêu tốn tài nguyên khổng lồ.
TRM thì khác. Nó chỉ dùng một mạng nơ ron nhỏ, nhưng có khả năng tự lặp đi lặp lại để tự sửa lỗi. Mô hình nhận vào câu hỏi, dự đoán ban đầu và thông tin suy luận tiềm ẩn, sau đó tinh chỉnh suy luận này qua nhiều vòng, tối đa 16 lần, để hoàn thiện câu trả lời. Chính khả năng “tự phản biện” này giúp TRM đạt độ chính xác vượt trội, dù cực kỳ tiết kiệm tài nguyên.
Khi nhỏ không còn là yếu
Một điều thú vị: mô hình hai lớp lại tổng quát hóa tốt hơn phiên bản bốn lớp. Việc cắt giảm độ phức tạp giúp mô hình tránh bị “quá khớp” lỗi phổ biến khi huấn luyện trên dữ liệu nhỏ.TRM còn loại bỏ các giả định toán học phức tạp của thế hệ trước (HRM), chẳng hạn như yêu cầu mô hình phải “hội tụ về một điểm cố định”. Bằng cách lan truyền ngược đơn giản qua toàn bộ quá trình đệ quy, TRM vừa gọn, vừa hiệu quả hơn.
Kết quả thực nghiệm đủ khiến giới nghiên cứu phải ngạc nhiên:
- Sudoku-Extreme: từ 56,5% lên 87,4% độ chính xác
- Maze-Hard: từ 74,5% lên 85,3%
- ARC-AGI, bài kiểm tra trí thông minh tổng quát: 44,6% (ARC-AGI-1) và 7,8% (ARC-AGI-2), vượt qua cả Gemini 2.5 Pro của Google (4,9%)
Ngoài ra, Samsung còn tinh giản cơ chế huấn luyện để mô hình biết khi nào nên dừng lại, tránh tốn thời gian tính toán thừa mà vẫn giữ hiệu quả tổng thể.
Liệu đây là “bước ngoặt” của AI?
Nghiên cứu của Samsung gửi một thông điệp rõ ràng: trí tuệ không nằm ở kích thước, mà ở cách tổ chức và khả năng tự điều chỉnh. Khi ngành AI đang bị mắc kẹt trong cuộc đua mô hình “ngày càng to”, TRM chứng minh rằng hướng đi ngược lại tinh gọn nhưng thông minh hơn không chỉ khả thi mà còn vượt trội trong một số khía cạnh.Nếu những ý tưởng như TRM được ứng dụng rộng rãi, tương lai có thể chứng kiến những mô hình AI mạnh mẽ chạy trên thiết bị cá nhân, không cần đến trung tâm dữ liệu tiêu tốn hàng tỷ đô năng lượng. Và có lẽ, một ngày nào đó, chiếc điện thoại trong tay bạn sẽ sở hữu năng lực suy luận mà trước đây chỉ các siêu máy chủ mới có.
Nguồn: Artificialintelligence