Thoại Viết Hoàng
Writer
Meta đã xây dựng các chip máy tính tùy chỉnh để hỗ trợ các tác vụ xử lý video và trí tuệ nhân tạo và lần đầu tiên nói về chúng công khai.
Gã khổng lồ mạng xã hội lần đầu tiên tiết lộ các dự án chip silicon nội bộ cho các phóng viên vào đầu tuần này, trước một sự kiện ảo hôm thứ Năm thảo luận về các khoản đầu tư cơ sở hạ tầng kỹ thuật AI.
Mặc dù việc một công ty thiết kế và chế tạo chip máy tính của riêng mình rất tốn kém, phó chủ tịch cơ sở hạ tầng Alexis Bjorlin nói Meta tin rằng hiệu suất được cải thiện sẽ xứng đáng với khoản đầu tư. Công ty cũng đang đại tu các thiết kế trung tâm dữ liệu để tập trung hơn vào các kỹ thuật tiết kiệm năng lượng, chẳng hạn như làm mát bằng chất lỏng, để giảm lượng nhiệt dư thừa.
Một trong những chip máy tính mới, bộ xử lý video có thể mở rộng Meta, hoặc MSVP, được sử dụng để xử lý và truyền video tới người dùng trong khi cắt giảm yêu cầu năng lượng. Bjorlin cho biết “không có thứ gì có sẵn trên thị trường” có thể xử lý nhiệm vụ xử lý và phân phối 4 tỷ video mỗi ngày một cách hiệu quả như Meta mong muốn.
Bộ xử lý còn lại là bộ xử lý đầu tiên trong Bộ tăng tốc suy luận và đào tạo Meta, hay MTIA, dòng chip nhằm trợ giúp các tác vụ dành riêng cho AI khác nhau. Chip MTIA mới đặc biệt xử lý “suy luận”, đó là khi một mô hình AI đã được đào tạo đưa ra dự đoán hoặc thực hiện hành động.
Bjorlin cho biết chip suy luận AI mới giúp cung cấp năng lượng cho một số thuật toán đề xuất của Meta được sử dụng để hiển thị nội dung và quảng cáo trong nguồn cấp tin tức của mọi người. Cô ấy từ chối trả lời ai đang sản xuất chip, nhưng một bài đăng trên blog cho biết bộ vi xử lý này “được chế tạo theo quy trình 7nm của TSMC”, cho thấy công ty sản xuất chất bán dẫn khổng lồ Đài Loan đang sản xuất công nghệ này.
Cô cho biết Meta có “lộ trình đa thế hệ” cho dòng chip AI bao gồm các bộ xử lý được sử dụng cho nhiệm vụ đào tạo các mô hình AI, nhưng cô từ chối cung cấp thông tin chi tiết ngoài chip suy luận mới. Reuters trước đây đưa tin Meta đã hủy một dự án chip suy luận AI và bắt đầu một dự án khác dự kiến sẽ ra mắt vào khoảng năm 2025, nhưng Bjorlin từ chối bình luận về báo cáo đó.
Vì Meta không kinh doanh dịch vụ điện toán đám mây như các công ty Google, Alphabet hay Microsoft, nên công ty không cảm thấy bắt buộc phải nói công khai về các dự án chip trung tâm dữ liệu nội bộ, cô nói.
Bjorlin nói: “Nếu bạn nhìn vào những gì chúng tôi đang chia sẻ — hai con chip đầu tiên mà chúng tôi đã phát triển — nó chắc chắn sẽ cung cấp một chút góc nhìn về những gì chúng tôi đang làm trong nội bộ. Chúng tôi không phải quảng cáo điều này và chúng tôi không cần quảng cáo điều này, nhưng bạn biết đấy, thế giới đang quan tâm”.
Phó chủ tịch phụ trách kỹ thuật của Meta Aparna Ramani cho biết phần cứng mới của công ty được phát triển để hoạt động hiệu quả với phần mềm PyTorch do công ty tự sản xuất, vốn đã trở thành một trong những công cụ phổ biến nhất được các nhà phát triển bên thứ ba sử dụng để tạo ứng dụng AI.
Phần cứng mới cuối cùng sẽ được sử dụng để hỗ trợ các tác vụ liên quan đến metaverse, chẳng hạn như thực tế ảo và thực tế tăng cường, cũng như lĩnh vực AI tổng quát đang phát triển, thường đề cập đến phần mềm AI có thể tạo văn bản, hình ảnh và video hấp dẫn.
Ramani cũng cho biết Meta đã phát triển một trợ lý viết mã do AI cung cấp cho các nhà phát triển của công ty để giúp họ tạo và vận hành phần mềm dễ dàng hơn. Trợ lý mới tương tự như công cụ GitHub Copilot của Microsoft được phát hành vào năm 2021 với sự trợ giúp từ công ty khởi nghiệp AI OpenAI.
Ngoài ra, Meta cho biết họ đã hoàn thành giai đoạn thứ hai hoặc giai đoạn cuối của quá trình xây dựng siêu máy tính có tên là Research SuperCluster, hay RSC, mà công ty đã nêu chi tiết vào năm ngoái. Meta đã sử dụng siêu máy tính, chứa 16.000 GPU Nvidia A100, để đào tạo mô hình ngôn ngữ LLaMA của công ty, trong số các mục đích sử dụng khác.
Ramani cho biết Meta tiếp tục hành động với niềm tin rằng nó sẽ đóng góp cho các công nghệ nguồn mở và nghiên cứu AI để thúc đẩy lĩnh vực công nghệ. Công ty đã tiết lộ rằng mô hình ngôn ngữ LLaMA lớn nhất, LLaMA 65B, chứa 65 tỷ tham số và được đào tạo trên 1,4 nghìn tỷ mã thông báo, đề cập đến dữ liệu được sử dụng để đào tạo AI.
Các công ty như OpenAI và Google đã không tiết lộ công khai các số liệu tương tự cho các mô hình ngôn ngữ lớn cạnh tranh, mặc dù CNBC đã báo cáo trong tuần này rằng mô hình PaLM 2 của Google đã được đào tạo trên 3,6 nghìn tỷ mã thông báo và chứa 340 tỷ tham số.
Không giống như các công ty công nghệ khác, Meta đã phát hành mô hình ngôn ngữ LLaMA của mình cho các nhà nghiên cứu để họ có thể học hỏi từ công nghệ này. Tuy nhiên, mô hình ngôn ngữ LlaMA sau đó đã bị rò rỉ ra công chúng rộng rãi hơn, dẫn đến việc nhiều nhà phát triển xây dựng các ứng dụng kết hợp công nghệ này.
Ramani cho biết Meta “vẫn đang suy nghĩ về tất cả các cộng tác nguồn mở của chúng tôi, và chắc chắn, tôi muốn nhắc lại rằng triết lý của chúng tôi vẫn là khoa học mở và cộng tác chéo”.