VnReview
Hà Nội

Mổ xẻ LiDAR Scanner trên iPad Pro: giống và khác gì so với Android?

Apple đã tham gia đường đua cảm biến 3D với các nhà sản xuất Android, bằng việc trang bị lên iPad Pro và sắp tới có thể cả iPhone. Bây giờ, cảm biến 3D sẽ được xem là thứ cần có với một flagship.

Các hãng cung ứng chắc chắn sẽ phải chú ý đến cảm biến 3D, đánh giá lại danh mục đầu tư và cân nhắc có bước đầu tư phù hợp. Cảm biến 3D mà Apple dùng tên gọi "LiDAR" là một loại cảm biến có thể xác định các vật thể trong không gian ba chiều. Tuy nhiên, "LiDAR" trên smartphone và tablet thực ra vẫn chỉ là "một phần nhỏ của hạng mục cảm biến 3D" - Pierre Cambou, nhà phân tích tại Yole Développement.

Mổ xẻ cụm camera sau của iPad Pro (ảnh: System Plus)

Lâu nay, người ta đã luôn muốn bổ sung thông tin về chiều sâu môi trường vào thông tin màu sắc và điểm ảnh, thu nhận bởi cảm biến 2D. Ví dụ với xe tự lái, LiDAR được sử dụng để xác định và lập vị trí các đối tượng xung quanh xe. Còn với Apple, LiDAR Scanner nhằm bổ trợ cho các ứng dụng thực tế tăng cường nâng cao, tương thích ARKit 3.5.

Apple lựa chọn cách tiếp cận khác với Android

Có ba kỹ thuật chính để xác định chiều sâu môi trường là stereo vision, structure light và time-of-flight (ToF). Trong loại ToF lại chia ra làm indirect ToF (iToF) và direct ToF (dToF), loại iTOF đo lường theo sự chênh lệch về pha còn dToF đo trực tiếp thời gian mà chuyến đi thực hiện.

Lát cắt dọc VCSEL phát tín hiệu và cảm biến cận hồng ngoại nhận tín hiệu của LiDar Scanner (ảnh: System Plus)

Loại mà Apple sử dụng trên iPad Pro đã được xác định là dToF, cung cấp nhiều chi tiết hơn so với structure light đang dùng trên hệ thống camera TrueDepth. Cho đến bây giờ, iPad Pro vẫn được xem là thiết bị dành cho thị trường tiêu dùng đầu tiên và duy nhất sử dụng loại này. Các hãng Android như Sony, Samsung, Huawei đang khai thác iToF, giúp cải thiện chất lượng ảnh chụp như tăng tốc độ lấy nét, xóa phông còn dToF thì không thể.

Về tính phổ biến, iToF trên Xperia 1 Mark 2 hay Galaxy S20 series được lòng số đông các hãng hơn cả. Nó cung cấp độ chính xác cao, quá trình xử lý thông tin đơn giản. Còn Apple lại đi theo con đường riêng. Họ chọn structure light cho camera trước để vận hành tính năng Face ID, còn dToF cho camera sau để lấy thông tin chiều sâu phục vụ ứng dụng AR.

Lát cắt dọc cho thấy từng thành phần cấu tạo nên cảm biến CMOS của Sony (ảnh: System Plus);

Cảm biến CMOS cận hồng ngoại SPAD đến từ Sony

Hệ thống LiDAR Scanner trên iPad Pro gồm hai thành phần chính: bộ phát tín hiệu VSCEL của Lumentum và bộ nhận tín hiệu là cảm biến CMOS cận hồng ngoại (NIR) SPAD phát triển bởi Sony. Cảm biến Sony chính là nhân tố đo lường thời gian thực hiện hành trình của laser, từ đó tính toán khoảng cách để đưa ra bản đồ chiều sâu.

Theo chia sẻ từ trước, đây là sản phẩm tiêu dùng đầu tiên sử dụng cảm biến CMOS với kết nối in-pixel cùng mảng SPAD. Đây là minh chứng quan trọng cho trình độ kỹ thuật của Sony. Lần đầu tiên họ sản xuất cảm biến ToF bằng kỹ thuật xếp chồng 3D, tích hợp cảm biến hình ảnh CMOS cận hồng ngoại với mảng SPAD.

Thị trường cảm biến 3D dự kiến sẽ bùng nổ gấp 3 lần sau vài năm nữa, trong đó di động chiếm áp đảo 54% (ảnh: Yole Développement)

Điều này có ý nghĩa gì? Kết nối in-pixel giúp việc tích hợp cảm biến CMOS cùng mạch logic trở nên khả thi. Kết quả là cảm biến có thể tính toán khoảng cách giữa iPad và vật thể một cách đơn giản và chính xác hơn. Chuyên gia phân tích Sylvain Hallereau đến từ System Plus giải thích về lợi ích của kỹ thuật này.

Đơn vị kinh doanh cảm biến của Sony đang ngày càng chú trọng hơn vào cảm biến 3D. Đầu tiên, họ nhận được đơn hàng cung cấp iToF cho Samsung và Huawei, tạo ra giá trị 300 triệu USD năm 2019. Tiếp theo, trúng tiếp đơn hàng thiết kế cảm biến dToF cho Apple. Nếu việc iPhone tích hợp cảm biến dToF là đúng, doanh thu Sony có thể đạt được 1 tỷ USD trong năm nay.


Ambitious Man

Chủ đề khác