VnReview
Hà Nội

Intel sắp tấn công thị trường AI với chip xử lý Nervana

Intel đã sản xuất ra rất nhiều con chip với tốc độ thuộc hàng "khủng" thời gian qua, nhưng tất cả chúng đều không được tối ưu cho một loại công nghệ vốn đang "làm mưa làm gió" trên thị trường hiện nay: Trí thông minh nhân tạo (AI).

Theo Engadget, các ứng dụng học sâu (deep learning) với chức năng thị giác máy tính hay nhận diện giọng nói... đều cần phải chạy những phép tính ma trận gồm những hàm tính khổng lồ - một hình thức xử lý vốn không phải là sở trường của các dòng chip Core hay Xeon của Intel.

Để giải quyết vấn đề này, mới đây Intel đã mua lại nhà sản xuất chip học sâu Nervana, và tạo ra dòng chip tích hợp AI mang tên Nervana Neural Processor (NNP), dự kiến sẽ bán ra thị trường vào cuối năm nay.

Đáng chú ý, đối tác của Intel trong khâu thiết kế dòng chip NNP chính là Facebook - một trong những công ty đi đầu trong lĩnh vực học sâu và trí thông minh nhân tạo.

"Chúng tôi rất hào hứng vì nhận được sự hợp tác, chia sẻ những hiểu biết về mặt công nghệ của Facebook trong quá trình thiết kế thế hệ phần cứng tích hợp AI này", CEO của Intel Brian Krzanich (ảnh dưới) phát biểu tại WSJDLive. Với con chip này, Intel dự kiến nhắm vào lĩnh vực chăm sóc sức khoẻ, xe hơi, thời tiết...

Không như các con chip dành cho máy tính PC, chip Nervana NNP là một bảng mạch tích hợp (ASIC) được thiết kế riêng cho những mục đích nhất định, như huấn luyện và thực hiện các thuật toán học sâu.

"Tốc độ và hiệu quả tính toán của học sâu sẽ được tối ưu nhờ các bảng mạch tích hợp ASIC, vốn được tuỳ biến riêng cho công việc này", Phó chủ tịch mảng AI của Intel Naveen Rao cho biết.

Chip Nervana NNP được thiết kế để xử lý các phép tính phổ biến trong học sâu, đặc biệt là ma trận. Cụ thể, Intel đã loại bỏ hoàn toàn bộ nhớ đệm thường thấy trên các CPU thông thường, và sử dụng một phần mềm đặc biệt để quản lý bộ nhớ tích hợp trên con chip Nervana, qua đó đưa hiệu suất của quá trình học sâu lên một tầm cao mới. Bên cạnh đó, chip Nervana cũng được thiết kế với các kết nối tín hiệu tốc độ cao cả trong và ngoài con chip, cho phép truyền tải dữ liệu hai chiều tốc độ cao. Điều này có nghĩa là nếu bạn liên kết nhiều con chip Nervana lại với nhau, chúng sẽ hoạt động như một con chip ảo cực lớn, cho phép tăng cường khả năng học sâu trên các thiết bị lớn hơn.

Tuy nhiên, điều kỳ lạ ở Nervana là nó sử dụng một dạng toán học số nguyên với độ chính xác thấp hơn thông thường, được gọi là Flexpoint. Bởi theo Naveen Rao thì các mạng thần kinh máy tính rất kiên nhẫn với sự nhiễu dữ liệu. Sự nhiễu dữ liệu thậm chí còn giúp chúng tìm ra các giải pháp nhanh hơn. Đồng thời, sử dụng các con số ít chính xác hơn sẽ cho phép các nhà thiết kế tăng khả năng xử lý song song, giảm độ trễ và tăng băng thông.

Mục tiêu của kiến trúc mới này là phát triển một vi xử lý có đủ độ dẻo dai để xử lý học sâu, và có khả năng "co dãn" để xử lý các phép tính mật độ cao thông qua các linh kiện phần cứng hiệu quả nhất có thể.

Trước đó, NVIDIA đã vượt mặt Intel trên đấu trường AI. Hiện các GPU mà NVIDIA đang sử dụng trên các card đồ hoạ của hãng và các siêu máy tính được xem là lựa chọn hàng đầu để huấn luyện các thuật toán AI (không phải thực thi chúng), và được các công ty như Google hay Facebook tin tưởng sử dụng. Trong khi đó, đối thủ lớn của Intel là Qualcomm thì đã và đang thiết kế những con chip cực kỳ hiệu quả trong thực thi các ứng dụng AI.

Với chip Nervana được thiết kế để vừa có thể huấn luyện và thực thi AI, Intel hi vọng có thể thay đổi được những điều nêu trên. Intel đã có sẵn hệ thống phân phối và giao dịch chip xử lý cần thiết - vốn đang được dùng cho nhiều dòng chip thuộc các thế hệ khác nhau - để có thể nhanh chóng đưa chip Nervana đến tay khách hàng. Họ cũng đang thiết kế một con chip mô phỏng não người mang tên Loihi, và chip Myriad X được thiết kế riêng cho thị giác máy tính.

Dù Intel đang hi vọng có thể bắt kịp NVIDIA trên đấu trường AI, thì NVIDIA cũng không đứng yên. Mới đây, NVIDIA đã tung ra con chip V1OO dành riêng cho các ứng dụng AI, và thuê Clement Farabet làm Phó chủ tịch mảng hạ tầng AI nhằm tạo ra những con chip vừa có thể chạy các ứng dụng học sâu lẫn huấn luyện chúng. Google cũng có bộ vi xử lý Tensor Processing Unit (TPU) để dùng trong các trung tâm dữ liệu của hãng, và IBM cũng có con chip mô phỏng não người tên là True North.;

Tấn Minh

Chủ đề khác