Cuộc tranh cãi đã có hồi kết: DeepSeek có thực sự "học lỏm" từ ChatGPT?

Nhật Quang
Nhật Quang
Phản hồi: 0

Nhật Quang

Editor
Thành viên BQT
Những bí mật đằng sau sự thành công của mô hình trí tuệ nhân tạo (AI) DeepSeek R1 vừa được hé lộ trong một nghiên cứu mang tính bước ngoặt, được công bố trên tạp chí khoa học danh tiếng Nature. Mô hình AI đến từ Trung Quốc này, vốn đã gây chấn động toàn cầu khi ra mắt vào tháng 1, đã chứng minh rằng có thể tạo ra một AI hàng đầu với một chi phí thấp đến kinh ngạc, đồng thời dập tan những nghi ngờ về việc "học lỏm" từ các đối thủ.

1758373958087.jpeg

Chi phí thấp đến kinh ngạc và sức mạnh của thuật toán


Điều gây sốc nhất mà các nhà nghiên cứu tại DeepSeek tiết lộ là chi phí để đào tạo mô hình R1 chỉ vỏn vẹn 294.000 USD. Con số này, ngay cả khi cộng thêm chi phí 6 triệu USD để tạo ra mô hình ngôn ngữ lớn nền tảng, vẫn thấp hơn hàng chục lần so với chi phí mà các công ty công nghệ Mỹ phải bỏ ra để có thể tạo ra các mô hình có hiệu năng tương đương.

Thành công này không đến từ sức mạnh phần cứng vượt trội. Trên thực tế, DeepSeek cho biết R1 chủ yếu được đào tạo trên các con chip H800 của Nvidia, loại chip đã bị cấm bán cho Trung Quốc từ năm 2023. Thay vào đó, bí quyết nằm ở một phương pháp đào tạo đột phá.

Thay vì dạy cho AI bằng cách đưa ra các ví dụ được lựa chọn bởi con người, DeepSeek đã sử dụng một phương pháp học tăng cường thuần túy và tự động. Quá trình này hoạt động dựa trên cơ chế "thử và sai", liên tục thưởng cho mô hình khi nó đạt được câu trả lời đúng. Công ty cho biết, chính cách tiếp cận này đã giúp cho R1 có thể tự học được các chiến lược lý luận của riêng mình, thay vì chỉ sao chép theo các chiến thuật do con người định sẵn.

Dập tan nghi ngờ "học lỏm" từ OpenAI


Khi DeepSeek R1 ra mắt, hiệu năng vượt trội của nó trong các tác vụ lý luận như toán học và lập trình đã khiến nhiều người, bao gồm cả các nhà nghiên cứu tại OpenAI, nghi ngờ rằng nó đã được đào tạo bằng cách "học lỏm" từ đầu ra của các mô hình như ChatGPT.

Tuy nhiên, trong bài báo vừa được công bố, các nhà nghiên cứu của DeepSeek đã khẳng định rằng R1 không học bằng cách sao chép các ví dụ được tạo ra bởi các mô hình của OpenAI. Họ thừa nhận rằng mô hình nền tảng có thể đã tiếp thu các nội dung do AI tạo ra có sẵn trên Internet, nhưng quá trình tinh chỉnh để tạo ra R1 là hoàn toàn độc lập.

Ông Lewis Tunstall, một kỹ sư tại Hugging Face và cũng là người đã thẩm định bài báo trên Nature, cho rằng lời bác bỏ này là có sức thuyết phục. Ông tin rằng bằng chứng hiện tại đã khá rõ ràng rằng người ta có thể đạt được một hiệu suất rất cao chỉ bằng cách sử dụng phương pháp học tăng cường thuần túy.

Khởi đầu một "cuộc cách mạng"


Việc DeepSeek công bố một cách minh bạch về phương pháp của mình, trong một bài báo đã qua thẩm định đồng nghiệp, được xem là một tiền lệ rất đáng hoan nghênh. Nó giúp cộng đồng có thể đánh giá và học hỏi, đồng thời thúc đẩy toàn bộ ngành công nghiệp phát triển một cách lành mạnh hơn.
Trong một thử nghiệm gần đây, dù không đứng đầu về độ chính xác, R1 vẫn được đánh giá là một trong những mô hình tốt nhất về sự cân bằng giữa hiệu năng và chi phí. "R1 đã khởi động một cuộc cách mạng," ông Tunstall nhận xét.

Với hơn 10,9 triệu lượt tải xuống trên nền tảng Hugging Face, DeepSeek R1 không chỉ là một thành tựu công nghệ. Nó là một minh chứng mạnh mẽ cho thấy, trong cuộc đua AI, sự đột phá về mặt thuật toán đôi khi còn quan trọng hơn cả việc sở hữu những con chip mạnh nhất.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2N1b2MtdHJhbmgtY2FpLWRhLWNvLWhvaS1rZXQtZGVlcHNlZWstY28tdGh1Yy1zdS1ob2MtbG9tLXR1LWNoYXRncHQuNjk1ODYv
Top