Enfabrica, công ty xây dựng phần cứng mạng để thúc đẩy khối lượng công việc AI, huy động được 125 triệu USD

Enfabrica, một công ty xây dựng chip mạng được thiết kế để xử lý khối lượng công việc AI và máy học, hôm nay thông báo rằng họ đã huy động được 125 triệu USD trong vòng cấp vốn Series B, định giá công ty ở mức “gấp 5 lần” mức định giá sau Series A, theo đồng sáng lập. người sáng lập và Giám đốc điều hành Rochan Sankar.
Enfabrica, công ty xây dựng phần cứng mạng để thúc đẩy khối lượng công việc AI, huy động được 125 triệu USD
Được dẫn dắt bởi Atreides Management với sự tham gia của Sutter Hill Ventures, Nvidia, IAG Capital Partners, Liberty Global Ventures, Valor Equity Partners, Infinitum Partners và Alumni Ventures, đợt mới nâng tổng số tiền huy động được của Enfabrica lên 148 triệu USD. Sankar nói rằng nó sẽ được dùng để hỗ trợ hoạt động R&D và hoạt động của Enfabrica, cũng như mở rộng đội ngũ kỹ thuật, bán hàng và tiếp thị.
“Đáng chú ý là Enfabrica đã huy động được số vốn lớn như vậy trong một môi trường cấp vốn đầy thách thức đối với các công ty khởi nghiệp về chip - và công nghệ sâu được tài trợ bởi quỹ mạo hiểm nói chung - và, khi làm như vậy, đã tạo nên sự khác biệt so với nhiều công ty khởi nghiệp về chip cùng ngành trong ngành. “, Sankar nói. “Khi AI tổng quát và các mô hình ngôn ngữ lớn tiếp tục thúc đẩy sự phát triển cơ sở hạ tầng lớn nhất trong điện toán đám mây trên nhiều ngành, các giải pháp như Enfabrica có tiềm năng giải quyết nhu cầu rất cao về công nghệ mạng.”
Enfabrica có thể đã thoát khỏi tình trạng tàng hình vào năm 2023, nhưng nó đã bắt đầu hành trình vào năm 2020. Sankar, trước đây là giám đốc kỹ thuật tại Broadcom, đã hợp tác với Shrijeet Mukherjee, người trước đây phụ trách nền tảng và kiến trúc mạng tại Google, để xây dựng một công ty khởi nghiệp — Enfabrica — để đáp ứng những gì họ quan sát thấy là sự tăng trưởng trong nhu cầu của ngành AI đối với cơ sở hạ tầng “song song, tăng tốc và không đồng nhất” - nói cách khác là GPU.
Sankar cho biết: “Chúng tôi lập luận rằng mạng silicon và các hệ thống cần phải tuân theo sự thay đổi mô hình tương tự để kích hoạt loại cơ sở hạ tầng điện toán này ở quy mô lớn”. “Thách thức lớn nhất mà cuộc cách mạng AI hiện nay đặt ra là việc mở rộng cơ sở hạ tầng AI - cả về chi phí tính toán và tính bền vững của tính toán.”
Với Sankar là Giám đốc điều hành và Mukherjee là giám đốc phát triển, cùng với một số kỹ sư sáng lập đến từ các công ty như Cisco, Meta và Intel, Enfabrica bắt đầu phát triển kiến trúc cho các chip mạng có thể đáp ứng các yêu cầu I/O và “chuyển động bộ nhớ” của khối lượng công việc song song, bao gồm cả AI.
Sankar khẳng định rằng các chip mạng thông thường, chẳng hạn như bộ chuyển mạch, gặp khó khăn trong việc theo kịp nhu cầu di chuyển dữ liệu của khối lượng công việc AI hiện đại. Sankar cho biết, một số mô hình AI đang được đào tạo ngày nay, như Llama 2 và GPT-4 của Meta, sử dụng các bộ dữ liệu khổng lồ trong quá trình đào tạo – và việc chuyển mạch mạng có thể trở thành nút cổ chai.
Ông nói: “Một phần đáng kể của vấn đề mở rộng và tắc nghẽn đối với ngành AI nằm ở các hệ thống con I/O, chuyển động bộ nhớ và mạng gắn liền với tính toán GPU. “Có nhu cầu rất lớn để kết nối nhu cầu khối lượng công việc AI ngày càng tăng với tổng chi phí, hiệu quả, tính bền vững và khả năng dễ dàng mở rộng quy mô các cụm điện toán mà chúng chạy trên đó”.
Trong nỗ lực phát triển phần cứng mạng vượt trội, Enfabrica tập trung vào khả năng song song hóa.
Phần cứng của Enfabrica – được gọi là Công tắc vải điện toán tăng tốc, hay gọi tắt là ACF-S – có thể cung cấp chuyển động dữ liệu lên tới “nhiều terabit mỗi giây” giữa GPU, CPU và chip tăng tốc AI cũng như bộ nhớ và các thiết bị mạng. Enfabric tuyên bố, bằng cách sử dụng các giao diện “dựa trên tiêu chuẩn”, phần cứng có thể mở rộng tới hàng chục nghìn nút và cắt giảm khả năng tính toán GPU cho mô hình ngôn ngữ lớn (theo dòng Llama 2) khoảng 50% ở cùng một điểm hiệu suất.
Sankar giải thích: “Các thiết bị ACF-S của Enfabrica bổ sung cho GPU, CPU và bộ tăng tốc bằng cách cung cấp kết nối mạng, I/O và bộ nhớ hiệu quả, hiệu suất cao được gắn trong giá máy chủ của trung tâm dữ liệu”. “Để đạt được mục tiêu đó, ACF-S là một giải pháp hội tụ giúp loại bỏ nhu cầu về I/O máy chủ truyền thống và các chip mạng khác nhau như bộ chuyển mạch mạng cấp độ giá đỡ, bộ điều khiển giao diện mạng máy chủ và bộ chuyển mạch PCIe.”
Enfabrica, công ty xây dựng phần cứng mạng để thúc đẩy khối lượng công việc AI, huy động được 125 triệu USD
Sankar cũng đưa ra quan điểm rằng các thiết bị ACF-S có thể mang lại lợi ích cho các công ty xử lý suy luận - tức là chạy các mô hình AI đã được đào tạo - bằng cách cho phép họ sử dụng số lượng GPU, CPU và các bộ tăng tốc AI khác ít nhất có thể. Đó là bởi vì - theo Sankar - ACF-S có thể sử dụng phần cứng hiện có hiệu quả hơn bằng cách di chuyển lượng lớn dữ liệu rất nhanh.
“ACF-S không phụ thuộc vào loại và nhãn hiệu bộ xử lý AI được sử dụng để tính toán AI, cũng như các mô hình chính xác được triển khai - cho phép xây dựng cơ sở hạ tầng AI trong nhiều trường hợp sử dụng khác nhau và hỗ trợ nhiều nhà cung cấp bộ xử lý mà không cần khóa độc quyền. -vào,” anh nói thêm.
Enfabrica có thể được tài trợ tốt. Nhưng đây không phải là công ty khởi nghiệp chip mạng duy nhất theo đuổi xu hướng AI, điều đáng chú ý là.
Mùa hè này, Cisco đã công bố một loạt phần cứng — Silicon One G200 và G202 — để hỗ trợ khối lượng công việc kết nối mạng AI. Về phần mình, cả Broadcom và Marvell — những công ty đương nhiệm trong lĩnh vực mạng doanh nghiệp — đều cung cấp các thiết bị chuyển mạch có thể cung cấp băng thông lên tới 51,2 terabit mỗi giây; Broadcom gần đây đã ra mắt loại vải hiệu suất cao Jericho3-AI, có thể kết nối tới 32.000 GPU.
Sankar không sẵn lòng nói về khách hàng của Enfabrica, vì vẫn còn khá sớm - một phần của đợt tài trợ mới nhất sẽ hỗ trợ các nỗ lực sản xuất và tiếp cận thị trường của Enfabrica, ông nói. Tuy nhiên, Sankar khẳng định rằng Enfabrica đang ở vị trí có thế mạnh nhờ được chú ý — và các khoản đầu tư khổng lồ đang được thực hiện — vào cơ sở hạ tầng AI.
Theo Tập đoàn Dell'Oro, các khoản đầu tư vào cơ sở hạ tầng AI sẽ tăng chi tiêu vốn cho trung tâm dữ liệu lên hơn 500 tỷ USD vào năm 2027. Trong khi đó, đầu tư vào phần cứng được thiết kế riêng cho AI, nói chung, dự kiến sẽ đạt tốc độ tăng trưởng kép hàng năm là 20,5% trong thời gian tới. 5 năm, theo IDC.
“Chi phí hiện tại và mức tiêu thụ điện năng của điện toán AI, dù tại chỗ hay trên đám mây, đều — hoặc nếu không — phải là ưu tiên hàng đầu đối với mọi CIO, giám đốc điều hành C-Suite và tổ chức CNTT triển khai dịch vụ AI,” anh ấy nói. “Bất chấp những cơn gió ngược kinh tế đã làm suy yếu thế giới khởi nghiệp công nghệ kể từ cuối năm 2022, Enfabrica đã nâng cao nguồn tài trợ, tiến độ sản phẩm và tiềm năng thị trường nhờ công nghệ đột phá và đổi mới đáng kể đối với các giải pháp chip I/O máy chủ và mạng hiện có [và] tầm quan trọng của cơ hội thị trường và sự thay đổi mô hình công nghệ mà AI tổng hợp và điện toán tăng tốc đã tạo ra trong 18 tháng qua.”
Enfabrica, có trụ sở tại Mountain View, chỉ có hơn 100 nhân viên trên khắp Bắc Mỹ, Châu Âu và Ấn Độ.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top