AWS ra mắt chip Trainium3: Tăng tốc độ AI gấp 4 lần và tiết kiệm năng lượng 40%

Mây Trắng
Mây Trắng
Phản hồi: 0

Mây Trắng

Intern Writer
Amazon Web Services (AWS) vừa giới thiệu phiên bản chip đào tạo AI mới mang tên Trainium3, với nhiều thông số kỹ thuật ấn tượng. Sự kiện này được công bố tại hội nghị AWS re:Invent 2025, nơi AWS cũng đã hé lộ về sản phẩm tiếp theo trong lộ trình đào tạo AI của mình: Trainium4, hiện đang trong quá trình phát triển và sẽ tương thích với các chip của Nvidia.

Tại hội nghị công nghệ thường niên, AWS đã chính thức ra mắt hệ thống Trainium3 UltraServer, được trang bị chip Trainium3 tiên tiến với kích thước chỉ 3 nanomet và công nghệ mạng tự phát triển. Như mong đợi, chip thế hệ thứ ba này mang lại hiệu suất vượt trội cho việc đào tạo và suy diễn AI so với thế hệ trước đó.

Theo AWS, hệ thống này nhanh hơn gấp 4 lần và có bộ nhớ gấp 4 lần, không chỉ cho việc đào tạo mà còn cho việc cung cấp ứng dụng AI trong thời điểm cao điểm. Hơn nữa, hàng nghìn UltraServers có thể được kết nối với nhau, cung cấp cho một ứng dụng lên đến 1 triệu chip Trainium3, gấp 10 lần so với thế hệ trước. Mỗi UltraServer có thể chứa 144 chip.
1764749986796.png

Điều quan trọng hơn, AWS cho biết các chip và hệ thống này cũng tiết kiệm năng lượng hơn 40% so với thế hệ trước. Trong khi thế giới đang chạy đua xây dựng các trung tâm dữ liệu lớn hơn với lượng điện tiêu thụ khổng lồ, AWS đang cố gắng phát triển các hệ thống tiêu thụ ít năng lượng hơn. Điều này không chỉ có lợi cho AWS mà còn giúp khách hàng của họ tiết kiệm chi phí.

Nhiều khách hàng của AWS như Anthropic (mà Amazon cũng là nhà đầu tư), LLM Karakuri của Nhật Bản, SplashMusic và Decart đã sử dụng chip và hệ thống thế hệ thứ ba này và giảm đáng kể chi phí suy diễn.

AWS cũng đã trình bày một chút về lộ trình cho chip tiếp theo, Trainium4, hứa hẹn sẽ mang lại bước tiến lớn về hiệu suất và hỗ trợ công nghệ kết nối chip tốc độ cao NVLink Fusion của Nvidia. Điều này có nghĩa là các hệ thống sử dụng Trainium4 sẽ có khả năng tương tác và mở rộng hiệu suất với các GPU của Nvidia, trong khi vẫn sử dụng công nghệ giá đỡ máy chủ tự phát triển của Amazon.

Cũng cần lưu ý rằng, kiến trúc CUDA (Compute Unified Device Architecture) của Nvidia đã trở thành tiêu chuẩn de facto mà tất cả các ứng dụng AI lớn đều được xây dựng để hỗ trợ. Các hệ thống sử dụng Trainium4 có thể giúp thu hút các ứng dụng AI lớn được thiết kế cho GPU của Nvidia đến với đám mây của Amazon.

Hiện tại, Amazon chưa công bố thời gian ra mắt Trainium4. Nếu công ty tuân theo các thời gian phát hành trước đó, chúng ta có thể sẽ nghe thêm thông tin về Trainium4 tại hội nghị năm sau.

Nguồn: Techcrunch
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly92bnJldmlldy52bi90aHJlYWRzL2F3cy1yYS1tYXQtY2hpcC10cmFpbml1bTMtdGFuZy10b2MtZG8tYWktZ2FwLTQtbGFuLXZhLXRpZXQta2llbS1uYW5nLWx1b25nLTQwLjc1MDk3Lw==
Top