VnReview
Hà Nội

LiDAR trên iPhone 12 Pro làm việc như thế nào?

Làm thế nào để "dụ" người dùng nâng cấp lên iPhone 12? Apple đã nghĩ ra một vài ý tưởng và LiDAR là một trong số đó.;

LiDAR có ý nghĩa với người dùng chủ yếu ở hai tính năng là lấy nét nhanh hơn khi thiếu sáng và nâng cao hiệu quả của các ứng dụng AR. Tuy nhiên, nếu LiDAR không phát huy hiệu quả tốt hơn, giúp Apple thuyết phục khách hàng mua iPhone, rất có thể nó sẽ lại đi vào vết xe đổ của 3D Touch. Vậy LiDAR trên iPhone làm việc ra sao?

LiDAR là gì?

Về cơ bản, LiDAR bắn ra một chùm tia được tập trung, thường là ánh sáng hồng ngoại bất khả kiến, vào các vật thể trong không gian. Sau đó, đo lường ánh sáng mất bao lâu để phản hồi trở lại, tính toán để tìm ra khoảng cách giữa thiết bị với vật thể, biết cái nào ở gần và cái nào ở xa. Khi có đủ thông tin khoảng cách của các vật thể, nó có thể lập nên một bản đồ 3D của môi trường. Người ta đã ứng dụng LiDAR trong nhiều hoạt động, từ thám hiểm đại dương tới nghiên cứu địa chất.

Một bức ảnh thông thường và một bức là do camera LiDAR quét (ảnh: iFixit)

Hiện tại, nếu bạn không phải là một nhà nghiên cứu, không phải cảnh sát hay quân đội, ứng dụng LiDAR gần gũi nhất sẽ là các robot máy hút bụi vận hành trong nhà, xe tự lái. Hoặc nếu có một bộ Kinect, bạn cũng đang khai thác công nghệ LiDAR.

Apple sử dụng LiDAR để làm gì?

Trên iPhone, Apple đã có một hệ thống camera đo chiều sâu để vận hành Face ID. Nhưng công nghệ mà nó sử dụng khác với LiDAR, camera TrueDepth sẽ phóng ra chùm tia hồng ngoại để quét khuôn mặt bạn, dựa vào sự biến dạng của hơn 30.000 điểm nhận diện để vẽ nên bản đồ 3D khuôn mặt. Kỹ thuật này gọi là structure light, một trong ba cách lấy thông tin chiều sâu môi trường.

Còn LiDAR trên iPad Pro và iPhone 12 Pro thì dùng kỹ thuật ToF, các bài mổ xẻ trước đó đã cho thấy công ty độc quyền cung cấp cảm biến 3D ToF cho Apple chính là Sony. Với LiDAR, Apple lưu ý về các ứng dụng hiện có trên iPhone như sau:

Bạn có thể dùng LiDAR trên iPhone 12 Pro để đo chiều cao

  • Giúp ứng dụng Measure đo lường hiệu quả hơn, tính toán nhanh và chính xác số đo chiều cao, chiều rộng và chiều dài.

  • Cải thiện hiệu quả của các ứng dụng thực tế tăng cường.

  • Lấy nét trong điều kiện thiếu sáng nhanh hơn.

Tương lai có thể làm gì hơn thế?

Nhưng tất nhiên đây mới chỉ là hữu hạn ứng dụng trong thời gian đầu, Apple hoàn toàn có thể làm nhiều hơn thế để khai thác LiDAR trong những năm tới. Apple đã mua lại công ty PrimeSense, đứng sau Xbox Kinect, và âm thầm tích hợp nền tảng công nghệ của họ vào Face ID. Vài năm sau, công ty tiến thêm một bước với với việc cung cấp một hệ thống LiDAR thực sự. Tất cả đã nằm trong kế hoạch của Apple, không phải chỉ để marketing.

Công nghệ của PrimeSense mang tính chiến lược cho các công việc lập bản đồ môi trường, còn Apple thì rất quan tâm tới ứng dụng này. Họ thậm chí đã mua WifiSLAM, một hãng tập trung phát triển hệ thống định vị toàn cầu trong nhà. Sớm hay muộn, chúng ta sẽ thấy Apple nâng cấp dịch vụ bản đồ của họ lên môi trường 3D, giúp chúng ta biết chính xác nhà hàng mình sắp đi ăn có không gian như thế nào.

LiDAR trên iPhone 12 Pro có rất nhiều tiềm năng hứa hẹn (ảnh: IBTimes)

Bản đồ 2D sẽ trở nên lỗi thời. Thay vào đó, khi bạn muốn hẹn người yêu tới một địa điểm lãng mạn, bạn có thể kiểm tra luôn cả không gian xung quanh bằng các hình ảnh thực tế được thu lại. Chúng ta có thể ướm quần áo, phụ kiện, trang sức,... trước khi bấm nút "mua" trong ứng dụng mua hàng. Khi muốn quan sát một địa điểm hay một món hàng bất kỳ, thông tin 3D sẽ mô tả chính xác hơn nhiều so với 2D.

Ambitious Man (Tham khảo iFixit) 

Chủ đề khác