Đối thủ của Samsung tung ra công nghệ chip nhớ đột phá đón đầu kỷ nguyên AI

Hail the Judge

Ta chơi xong không trả tiền, vậy đâu có gọi là bán
Gã khổng lồ công nghệ nhớ Hàn Quốc SK Hynix vừa công bố khởi động sản xuất hàng loạt bộ nhớ HBM3E 12 lớp đầu tiên trên thế giới, với dung lượng lên đến 36GB, đánh dấu bước nhảy vọt so với thế hệ 8 lớp 24GB trước đó.

Thiết kế mới này được hiện thực hóa nhờ giảm độ dày của mỗi chip DRAM xuống 40%, cho phép xếp chồng nhiều lớp hơn mà vẫn giữ nguyên kích thước tổng thể. SK Hynix dự kiến sẽ bắt đầu xuất xưởng hàng loạt vào cuối năm 2024.

Bộ nhớ HBM3E hỗ trợ băng thông 9600 MT/s, tương đương tốc độ hiệu dụng 1,22 TB/s khi sử dụng cấu hình 8 chồng. Cải tiến này giúp HBM3E trở thành lựa chọn lý tưởng cho các tác vụ AI và mô hình ngôn ngữ lớn (LLM) đòi hỏi cả tốc độ và dung lượng cao, cho phép xử lý dữ liệu nhanh hơn, nâng cao hiệu quả hoạt động của mô hình AI.

Để xếp chồng bộ nhớ tiên tiến, SK Hynix ứng dụng các công nghệ đóng gói đột phá, bao gồm Through Silicon Via (TSV) và Mass Reflow Molded Underfill (MR-MUF). Các phương pháp này rất quan trọng để duy trì cấu trúc ổn định và tản nhiệt hiệu quả, đảm bảo hoạt động ổn định, hiệu suất cao cho HBM3E. Khả năng tản nhiệt được cải thiện đặc biệt quan trọng để duy trì độ tin cậy trong quá trình xử lý AI cường độ cao.

1729149480944.png


Bên cạnh tốc độ và dung lượng vượt trội, HBM3E còn được thiết kế để nâng cao sự ổn định. Quy trình đóng gói độc quyền của SK Hynix đảm bảo giảm thiểu cong vênh trong quá trình xếp chồng. Công nghệ MR-MUF cho phép quản lý áp suất bên trong tốt hơn, giảm thiểu nguy cơ hỏng hóc cơ học và đảm bảo độ bền lâu dài.

Việc lấy mẫu sản phẩm HBM3E 12 lớp đã được triển khai từ tháng 3 năm 2024. Dự kiến, GPU Blackwell Ultra của Nvidia và bộ gia tốc Instinct MI325X của AMD sẽ nằm trong số những sản phẩm đầu tiên ứng dụng công nghệ bộ nhớ tiên tiến này, tận dụng tối đa 288GB HBM3E để hỗ trợ các phép tính AI phức tạp. Gần đây, SK Hynix đã từ chối khoản thanh toán tạm ứng 374 triệu USD từ một công ty giấu tên để đảm bảo nguồn cung HBM cho phần cứng AI đang rất được ưa chuộng của Nvidia.

"SK Hynix một lần nữa vượt qua giới hạn công nghệ, khẳng định vị thế dẫn đầu ngành của chúng tôi trong lĩnh vực bộ nhớ AI," Justin Kim, Chủ tịch (Giám đốc AI Infra) tại SK Hynix, chia sẻ. "Chúng tôi sẽ tiếp tục giữ vững vị trí nhà cung cấp bộ nhớ AI số 1 thế giới khi chúng tôi kiên định chuẩn bị các sản phẩm bộ nhớ thế hệ tiếp theo để vượt qua những thách thức của kỷ nguyên AI."
 


Đăng nhập một lần thảo luận tẹt ga
Top