The Storm Riders
Writer
Meta Platforms đang thử nghiệm chip "cây nhà lá vườn" đầu tiên để huấn luyện các hệ thống trí tuệ nhân tạo (AI), một cột mốc quan trọng khi công ty tiến tới việc tự thiết kế nhiều silicon tùy chỉnh hơn và giảm sự phụ thuộc vào các nhà cung cấp bên ngoài như Nvidia, hai nguồn tin nói với Reuters.
Công ty truyền thông xã hội lớn nhất thế giới đã bắt đầu triển khai một lượng nhỏ chip này và lên kế hoạch tăng cường sản xuất để sử dụng trên quy mô lớn nếu thử nghiệm diễn ra tốt đẹp, các nguồn tin cho biết. Meta đang hợp tác với TSMC để sản xuất chip này, người này cho biết.
Nỗ lực phát triển chip nội bộ là một phần trong kế hoạch dài hạn của Meta nhằm giảm chi phí cơ sở hạ tầng khổng lồ khi công ty đặt cược tốn kém vào các công cụ AI để thúc đẩy tăng trưởng. Meta, công ty sở hữu Facebook, Instagram và WhatsApp, đã dự báo tổng chi phí năm 2025 là 114 tỷ đến 119 tỷ đô la Mỹ, bao gồm tới 65 tỷ đô la Mỹ chi tiêu vốn chủ yếu do chi tiêu cho cơ sở hạ tầng AI.
Một trong những nguồn tin cho biết chip huấn luyện mới của Meta là một bộ tăng tốc chuyên dụng, có nghĩa là nó được thiết kế chỉ để xử lý các tác vụ dành riêng cho AI. Điều này có thể làm cho nó tiết kiệm điện hơn so với các bộ xử lý đồ họa tích hợp (GPU) thường được sử dụng cho khối lượng công việc AI.
Việc triển khai thử nghiệm bắt đầu sau khi Meta hoàn thành "tape-out" đầu tiên của chip, một dấu hiệu thành công quan trọng trong công việc phát triển silicon liên quan đến việc gửi một thiết kế ban đầu qua một nhà máy sản xuất chip, nguồn tin khác cho biết.
Một lần "tape-out" điển hình có chi phí hàng chục triệu đô la và mất khoảng ba đến sáu tháng để hoàn thành, mà không có gì đảm bảo thử nghiệm sẽ thành công. Nếu thất bại, Meta sẽ phải chẩn đoán vấn đề và lặp lại bước "tape-out".
Meta và TSMC từ chối bình luận.
Con chip này là sản phẩm mới nhất trong dòng Meta Training and Inference Accelerator (MTIA) của công ty. Chương trình này đã có một khởi đầu không ổn định trong nhiều năm và tại một thời điểm đã loại bỏ một con chip ở giai đoạn phát triển tương tự. Tuy nhiên, Meta năm ngoái đã bắt đầu sử dụng chip MTIA để thực hiện suy luận, hoặc quá trình liên quan đến việc chạy một hệ thống AI khi người dùng tương tác với nó, cho các hệ thống đề xuất xác định nội dung nào hiển thị trên nguồn cấp tin tức Facebook và Instagram.
Các giám đốc điều hành của Meta cho biết họ muốn bắt đầu sử dụng chip của riêng mình vào năm 2026 để huấn luyện, hoặc quá trình sử dụng nhiều máy tính để cung cấp cho hệ thống AI rất nhiều dữ liệu để "dạy" nó cách thực hiện. Cũng như chip suy luận, mục tiêu của chip huấn luyện là bắt đầu với các hệ thống đề xuất và sau đó sử dụng nó cho các sản phẩm AI tổng quát như chatbot Meta AI, các giám đốc điều hành cho biết.
"Chúng tôi đang nghiên cứu cách chúng tôi sẽ đào tạo cho các hệ thống đề xuất và sau đó cuối cùng là cách chúng tôi nghĩ về đào tạo và suy luận cho GenAI," Giám đốc sản phẩm của Meta, Chris Cox, cho biết tại hội nghị công nghệ, truyền thông và viễn thông của Morgan Stanley vào tuần trước. Cox mô tả những nỗ lực phát triển chip của Meta là "một tình huống kiểu đi bộ, bò, chạy" cho đến nay, nhưng cho biết các giám đốc điều hành coi chip suy luận thế hệ đầu tiên cho các đề xuất là một "thành công lớn".
Meta trước đây đã ngừng sử dụng chip suy luận tùy chỉnh nội bộ sau khi nó thất bại trong một đợt triển khai thử nghiệm quy mô nhỏ tương tự như đợt triển khai hiện tại cho chip huấn luyện, thay vào đó đảo ngược hướng đi và đặt hàng GPU của Nvidia trị giá hàng tỷ đô la vào năm 2022. Công ty truyền thông xã hội vẫn là một trong những khách hàng lớn nhất của Nvidia kể từ đó, tích lũy một kho GPU để đào tạo các mô hình của mình, bao gồm cả các hệ thống đề xuất và quảng cáo và loạt mô hình nền tảng Llama của mình. Các đơn vị này cũng thực hiện suy luận cho hơn 3 tỷ người sử dụng ứng dụng của nó mỗi ngày.
Giá trị của những GPU đó đã bị nghi ngờ trong năm nay khi các nhà nghiên cứu AI ngày càng bày tỏ sự nghi ngờ về việc có thể đạt được bao nhiêu tiến bộ nữa bằng cách tiếp tục "mở rộng quy mô" các mô hình ngôn ngữ lớn bằng cách thêm ngày càng nhiều dữ liệu và sức mạnh tính toán. Những nghi ngờ đó đã được củng cố với sự ra mắt vào cuối tháng 1 của các mô hình chi phí thấp mới từ công ty khởi nghiệp Trung Quốc DeepSeek, tối ưu hóa hiệu quả tính toán bằng cách dựa nhiều hơn vào suy luận so với hầu hết các mô hình hiện tại.
Công ty truyền thông xã hội lớn nhất thế giới đã bắt đầu triển khai một lượng nhỏ chip này và lên kế hoạch tăng cường sản xuất để sử dụng trên quy mô lớn nếu thử nghiệm diễn ra tốt đẹp, các nguồn tin cho biết. Meta đang hợp tác với TSMC để sản xuất chip này, người này cho biết.
Nỗ lực phát triển chip nội bộ là một phần trong kế hoạch dài hạn của Meta nhằm giảm chi phí cơ sở hạ tầng khổng lồ khi công ty đặt cược tốn kém vào các công cụ AI để thúc đẩy tăng trưởng. Meta, công ty sở hữu Facebook, Instagram và WhatsApp, đã dự báo tổng chi phí năm 2025 là 114 tỷ đến 119 tỷ đô la Mỹ, bao gồm tới 65 tỷ đô la Mỹ chi tiêu vốn chủ yếu do chi tiêu cho cơ sở hạ tầng AI.

Một trong những nguồn tin cho biết chip huấn luyện mới của Meta là một bộ tăng tốc chuyên dụng, có nghĩa là nó được thiết kế chỉ để xử lý các tác vụ dành riêng cho AI. Điều này có thể làm cho nó tiết kiệm điện hơn so với các bộ xử lý đồ họa tích hợp (GPU) thường được sử dụng cho khối lượng công việc AI.
Việc triển khai thử nghiệm bắt đầu sau khi Meta hoàn thành "tape-out" đầu tiên của chip, một dấu hiệu thành công quan trọng trong công việc phát triển silicon liên quan đến việc gửi một thiết kế ban đầu qua một nhà máy sản xuất chip, nguồn tin khác cho biết.
Một lần "tape-out" điển hình có chi phí hàng chục triệu đô la và mất khoảng ba đến sáu tháng để hoàn thành, mà không có gì đảm bảo thử nghiệm sẽ thành công. Nếu thất bại, Meta sẽ phải chẩn đoán vấn đề và lặp lại bước "tape-out".
Meta và TSMC từ chối bình luận.
Con chip này là sản phẩm mới nhất trong dòng Meta Training and Inference Accelerator (MTIA) của công ty. Chương trình này đã có một khởi đầu không ổn định trong nhiều năm và tại một thời điểm đã loại bỏ một con chip ở giai đoạn phát triển tương tự. Tuy nhiên, Meta năm ngoái đã bắt đầu sử dụng chip MTIA để thực hiện suy luận, hoặc quá trình liên quan đến việc chạy một hệ thống AI khi người dùng tương tác với nó, cho các hệ thống đề xuất xác định nội dung nào hiển thị trên nguồn cấp tin tức Facebook và Instagram.

Các giám đốc điều hành của Meta cho biết họ muốn bắt đầu sử dụng chip của riêng mình vào năm 2026 để huấn luyện, hoặc quá trình sử dụng nhiều máy tính để cung cấp cho hệ thống AI rất nhiều dữ liệu để "dạy" nó cách thực hiện. Cũng như chip suy luận, mục tiêu của chip huấn luyện là bắt đầu với các hệ thống đề xuất và sau đó sử dụng nó cho các sản phẩm AI tổng quát như chatbot Meta AI, các giám đốc điều hành cho biết.
"Chúng tôi đang nghiên cứu cách chúng tôi sẽ đào tạo cho các hệ thống đề xuất và sau đó cuối cùng là cách chúng tôi nghĩ về đào tạo và suy luận cho GenAI," Giám đốc sản phẩm của Meta, Chris Cox, cho biết tại hội nghị công nghệ, truyền thông và viễn thông của Morgan Stanley vào tuần trước. Cox mô tả những nỗ lực phát triển chip của Meta là "một tình huống kiểu đi bộ, bò, chạy" cho đến nay, nhưng cho biết các giám đốc điều hành coi chip suy luận thế hệ đầu tiên cho các đề xuất là một "thành công lớn".
Meta trước đây đã ngừng sử dụng chip suy luận tùy chỉnh nội bộ sau khi nó thất bại trong một đợt triển khai thử nghiệm quy mô nhỏ tương tự như đợt triển khai hiện tại cho chip huấn luyện, thay vào đó đảo ngược hướng đi và đặt hàng GPU của Nvidia trị giá hàng tỷ đô la vào năm 2022. Công ty truyền thông xã hội vẫn là một trong những khách hàng lớn nhất của Nvidia kể từ đó, tích lũy một kho GPU để đào tạo các mô hình của mình, bao gồm cả các hệ thống đề xuất và quảng cáo và loạt mô hình nền tảng Llama của mình. Các đơn vị này cũng thực hiện suy luận cho hơn 3 tỷ người sử dụng ứng dụng của nó mỗi ngày.

Giá trị của những GPU đó đã bị nghi ngờ trong năm nay khi các nhà nghiên cứu AI ngày càng bày tỏ sự nghi ngờ về việc có thể đạt được bao nhiêu tiến bộ nữa bằng cách tiếp tục "mở rộng quy mô" các mô hình ngôn ngữ lớn bằng cách thêm ngày càng nhiều dữ liệu và sức mạnh tính toán. Những nghi ngờ đó đã được củng cố với sự ra mắt vào cuối tháng 1 của các mô hình chi phí thấp mới từ công ty khởi nghiệp Trung Quốc DeepSeek, tối ưu hóa hiệu quả tính toán bằng cách dựa nhiều hơn vào suy luận so với hầu hết các mô hình hiện tại.