Minh Nguyệt
Intern Writer
Bạn có bao giờ thắc mắc NPU (neural processing unit) là gì và nó có những tác dụng gì không? Hãy cùng mình khám phá về loại chip đặc biệt này, cũng như so sánh nó với các bộ xử lý khác và lý do tại sao nó lại đang trở thành một bước ngoặt trong công nghệ.
NPU, viết tắt của neural processing unit, là một loại vi mạch được thiết kế và chế tạo riêng biệt, giúp tăng tốc độ tính toán trong máy học nhanh hơn so với các bộ xử lý trung tâm (CPU) hay bộ xử lý đồ họa (GPU) thông thường. Trước đây, NPUs thường xuất hiện nhiều hơn trong các trung tâm dữ liệu và máy chủ, nhưng giờ đây chúng đã bắt đầu xuất hiện trong các bộ xử lý dành cho người tiêu dùng, nhằm tăng tốc các phép toán của phần mềm trí tuệ nhân tạo (AI), như các mô hình ngôn ngữ lớn tương tự ChatGPT.
NPUs đã xuất hiện trong nhiều thiết bị khác nhau trong suốt những năm vừa qua, chẳng hạn như iPhone và iPad của Apple, cũng như các máy tính và laptop "Copilot+". Những chip Bionic của Apple với NPUs trên bo mạch không chỉ thực hiện các tác vụ như ổn định video và chỉnh sửa ảnh, mà giờ đây chúng còn hỗ trợ các chức năng AI sinh sinh, bao gồm vẽ và tạo văn bản. Hơn nữa, NPUs còn có thể trả lời các câu hỏi dạng ngôn ngữ tự nhiên bằng cách sử dụng các AI mô hình ngôn ngữ lớn.
Thông thường, những tác vụ này sẽ được xử lý trên đám mây do yêu cầu về xử lý dữ liệu lớn, nhưng với thế hệ NPUs mới nhất, một số tác vụ đã có thể thực hiện trực tiếp trên thiết bị. Điều này giúp tăng cường hiệu suất, giảm độ trễ và tiết kiệm năng lượng cũng như dữ liệu, khiến chúng nhanh hơn và đỡ tốn pin hơn.
Có thể bạn cũng đang tự hỏi NPU khác gì so với CPU, GPU và SoC? Thật ra, "NPU" có thể gây ra sự nhầm lẫn vì tên gọi của nó tương tự như nhiều thuật ngữ khác liên quan đến bộ xử lý và công nghệ hiện đại. Một NPU không phải là CPU, tuy nhiên nó có thể là một phần của hệ thống trên chip (SoC), cái mà cũng có thể chứa CPU và GPU.
Một khái niệm hiện đại hơn gần đây đã xuất hiện, được gọi là GPNPU. Đây là những bộ xử lý kết hợp giữa đồ họa và neural processor trên cùng một chip. Việc hợp nhất này cho phép NPU tận dụng khả năng đa dụng của GPU để tăng tốc độ tính toán AI vượt ra ngoài khả năng của riêng nó. Một số thiết bị hiện đại đang quảng cáo tốc độ tính toán của họ bằng đơn vị TFLOPS (Tera Floating-Point Operations Per Second) như một chỉ số cho biết thiết bị đó nhanh như thế nào trong các phép toán AI, và những TFLOPS này thường được phân chia giữa NPU và GPU, vì cả hai đều có thể đóng góp.
TFLOPS là một đơn vị đo lường cho khả năng tính toán của máy tính, cho biết khả năng thực hiện đến một triệu triệu phép toán dấu phẩy động mỗi giây. Nhanh thật đúng không? GPNPUs có thể là bước tiến tiếp theo trong lĩnh vực này, giúp đẩy các phép toán AI xa hơn và có khả năng cho phép NPU tham gia vào việc dựng hình 3D bằng các phép toán AI cho việc tăng cường độ phân giải và tạo khung hình.
Như vậy, với sự phát triển không ngừng của công nghệ, NPUs đang trở thành những người bạn đồng hành không thể thiếu trong các thiết bị hiện đại, giúp chúng ta tận dụng tối đa sức mạnh của AI.
NPU, viết tắt của neural processing unit, là một loại vi mạch được thiết kế và chế tạo riêng biệt, giúp tăng tốc độ tính toán trong máy học nhanh hơn so với các bộ xử lý trung tâm (CPU) hay bộ xử lý đồ họa (GPU) thông thường. Trước đây, NPUs thường xuất hiện nhiều hơn trong các trung tâm dữ liệu và máy chủ, nhưng giờ đây chúng đã bắt đầu xuất hiện trong các bộ xử lý dành cho người tiêu dùng, nhằm tăng tốc các phép toán của phần mềm trí tuệ nhân tạo (AI), như các mô hình ngôn ngữ lớn tương tự ChatGPT.

NPUs đã xuất hiện trong nhiều thiết bị khác nhau trong suốt những năm vừa qua, chẳng hạn như iPhone và iPad của Apple, cũng như các máy tính và laptop "Copilot+". Những chip Bionic của Apple với NPUs trên bo mạch không chỉ thực hiện các tác vụ như ổn định video và chỉnh sửa ảnh, mà giờ đây chúng còn hỗ trợ các chức năng AI sinh sinh, bao gồm vẽ và tạo văn bản. Hơn nữa, NPUs còn có thể trả lời các câu hỏi dạng ngôn ngữ tự nhiên bằng cách sử dụng các AI mô hình ngôn ngữ lớn.
Thông thường, những tác vụ này sẽ được xử lý trên đám mây do yêu cầu về xử lý dữ liệu lớn, nhưng với thế hệ NPUs mới nhất, một số tác vụ đã có thể thực hiện trực tiếp trên thiết bị. Điều này giúp tăng cường hiệu suất, giảm độ trễ và tiết kiệm năng lượng cũng như dữ liệu, khiến chúng nhanh hơn và đỡ tốn pin hơn.
Có thể bạn cũng đang tự hỏi NPU khác gì so với CPU, GPU và SoC? Thật ra, "NPU" có thể gây ra sự nhầm lẫn vì tên gọi của nó tương tự như nhiều thuật ngữ khác liên quan đến bộ xử lý và công nghệ hiện đại. Một NPU không phải là CPU, tuy nhiên nó có thể là một phần của hệ thống trên chip (SoC), cái mà cũng có thể chứa CPU và GPU.
Một khái niệm hiện đại hơn gần đây đã xuất hiện, được gọi là GPNPU. Đây là những bộ xử lý kết hợp giữa đồ họa và neural processor trên cùng một chip. Việc hợp nhất này cho phép NPU tận dụng khả năng đa dụng của GPU để tăng tốc độ tính toán AI vượt ra ngoài khả năng của riêng nó. Một số thiết bị hiện đại đang quảng cáo tốc độ tính toán của họ bằng đơn vị TFLOPS (Tera Floating-Point Operations Per Second) như một chỉ số cho biết thiết bị đó nhanh như thế nào trong các phép toán AI, và những TFLOPS này thường được phân chia giữa NPU và GPU, vì cả hai đều có thể đóng góp.
TFLOPS là một đơn vị đo lường cho khả năng tính toán của máy tính, cho biết khả năng thực hiện đến một triệu triệu phép toán dấu phẩy động mỗi giây. Nhanh thật đúng không? GPNPUs có thể là bước tiến tiếp theo trong lĩnh vực này, giúp đẩy các phép toán AI xa hơn và có khả năng cho phép NPU tham gia vào việc dựng hình 3D bằng các phép toán AI cho việc tăng cường độ phân giải và tạo khung hình.
Như vậy, với sự phát triển không ngừng của công nghệ, NPUs đang trở thành những người bạn đồng hành không thể thiếu trong các thiết bị hiện đại, giúp chúng ta tận dụng tối đa sức mạnh của AI.