VnReview
Hà Nội

Facetime trên iOS 13 beta 3: Đỉnh cao đột phá công nghệ?

Bản cập nhật Facetime mới trên hệ điều hành iOS 13 beta 3 của Apple đã có thể điều chỉnh điểm nhìn của bạn luôn tập trung vào người đối diện như thể bạn đang nhìn trực tiếp vào camera vậy, ngay cả khi bạn đang nhìn vào màn hình. Phép màu đằng sau đột phá này là sự phát triển về cả phần mềm lẫn phần cứng của Apple trong nhiều năm qua, điều này cho thấy rằng Apple đã định hình sẵn tương lai cho dòng sản phẩm của mình.

Điều chỉnh điểm nhìn (Attention Correction) trên FaceTime

Nhận xét về tính năng mới này, nhà phát triển Mike Rundle cho biết "Điều này thật điên rồ. Đây lẽ ra là công nghệ của thế kỷ tiếp theo". Nhiều người dùng trên Reddit nhận xét rằng công nghệ này "quá tuyệt vời""đây chính là tương lai".

Nhưng thay vì được xem là một "cuộc cách mạng" yêu cầu một thiết bị hoàn toàn mới để sử dụng tính năng này, Apple lại xây dựng nó trên một loạt các công nghệ mà công ty này đã phát triển trong nhiều năm.

Tính năng này hiện đã có thể sử dụng trên hệ điều hành iOS 13 bản thử nghiệm trên dòng iPhone XS sử dụng con chip A12 Bionic và dòng iPad Pro mới nhất với con chip A12X Bionic. Chính vì tính năng này được điều chỉnh trực tiếp tại thiết bị của bạn, do đó ánh nhìn của bạn sẽ trông tự nhiên hơn với người đối diện cho dù thiết bị đầu cuối đang sử dụng hệ điều hành iOS, loại chip hay Macbook nào để Facetime.

Đây là ví dụ điển hình của một ứng dụng có thể sử dụng hàng loạt công nghệ mà Apple đã phát triển và giới thiệu trong những năm qua. Và điều đó đã nhấn mạnh rằng tất cả các hệ điều hành, ứng dụng, chip và các cảm biến mà Apple đang sử dụng và phân phối trên toàn cầu khác biệt hoàn toàn và đánh bại mọi nỗ lực sao chép thiết kế và công nghệ của công ty này.

Đây là sự phát triển, không phải một cuộc cách mạng

Thông thường, các cây viết về công nghệ cho rằng những tính năng đặc biệt có thể dễ dàng bị sao chép theo xu hướng. Nhưng điều mà Apple đã làm được trong tính năng này cũng như những thứ khác đó là chúng không chỉ là những tính năng độc lập, mà chúng được xây dựng dựa trên nền tảng mở rộng và các công nghệ có sẵn. Điều này giúp Apple có thể phát triển với tốc độ chóng mặt.

Mặt khác, Apple còn có thể chia sẻ công nghệ của họ với bên phát triển thứ ba ở dạng hàm API (Application Programming Interfaces) công khai. Điều này giúp Apple có thể tận dụng những tài năng ngoài công ty phát triển các ứng dụng mới cho nền tảng của mình, như Depth imaging, Machine Learning và Augmented Reality. Tại Hội nghị WWDC hằng năm, Apple đã giới thiệu cho các nhà phát triển những công nghệ mới và các công cụ tiên tiến nhằm giúp bên thứ ba xây dựng phần mềm dựa trên nền tảng của hãng.

Apple đã kết hợp ống kính thường và ống kính zoom để chụp ảnh đồng thời.

Tại hội nghị WWDC17, Etienne Guerard đã giới thiệu tính năng "Image Editing with Depth" trên thiết bị iPhone 7 Plus nhờ vào dữ liệu chiều sâu không gian được thu thập từ cụm camera kép phía sau.

Ông đã mô tả chi tiết cách ứng dụng Camera của Apple sử dụng những dữ liệu này để tạo ra những bức ảnh chân dung xóa phông. Từ hệ điều hành iOS 11, Apple đã cho phép bên thứ ba truy cập vào vùng dữ liệu này để tạo ra công cụ ảnh bằng Apple's Depth APIs. Điển hình là ứng dụng Focos, ứng dụng này cung cấp chính xác độ sâu của vật thể và các hiệu ứng khác.

Song song với đó, Apple cũng giới thiệu một loạt công nghệ mới gồm Vision framework, CoreML và ARKit nhằm xử lý tất cả các mảng lớn nhằm xây dựng vật thể AR trong thế giới thực. Dù vẫn chưa rõ việc các công nghệ trên kết hợp với nhau như thế nào, nhưng sau đó, Apple tiếp tục cho ra mắt tính năng Potrait Lighting trên iPhone 8 Plus với khả năng phân tích chiều sâu tối ưu hơn.

Portrait Lighting có thể biến một tấm ảnh bình thường trở nên đầy nghệ thuật

Potrait Lightning đưa khái niệm thu thập dữ liệu chiều sâu ảnh lên tầm cao trong thế giới AR: chúng đã tạo ra một lớp thực tế ảo mô phỏng ánh sáng studio, ánh sáng viền hay ánh sáng trên sân khấu nhằm tạo hiệu ứng cô lập đối tượng giống như đang ngồi trên một sân khấu tối. ARKit sau đó tăng cường khả năng ứng dụng thực tế qua tính năng gắn các vật thể ảo lên bề mặt của đối tượng.

Tính năng này tiếp tục được mở rộng trên iPhone X, cụm camera kép phía sau cũng cung cấp phương pháp thu thập dữ liệu chiều sâu mới thông qua phần cứng có tên gọi TrueDepth. Thay vì chụp hai tấm ảnh, chúng sử dụng một cấu trúc cảm biến thu thập dữ liệu về chiều sâu và màu sắc tách biệt với nhau.

TrueDepth cung cấp cho người dùng và nhà phát triển ứng dụng hàng loạt tính năng mới.

Potrait Lightning nhanh chóng được ứng dụng vào chụp ảnh sefies với camera trước. Và tất nhiên, Apple cũng nhanh chóng ra mắt tính năng Face ID dựa trên nền tảng TrueDepth để mở khóa thiết bị nhanh chóng và tiện lợi hơn; và tính năng Animoji sử dụng ARKit để thay thế khuôn mặt của bạn thành một nhân vật hoạt hình với các biểu tượng cảm xúc dựa trên chuyển động đầu và cử chỉ khuôn mặt của bạn.

Apple cũng chứng minh sức mạnh của ARKit thông qua ứng dụng của bên thứ ba. Như trong ứng dụng Snapchat, các bộ lọc của ứng dụng này trên camera trước có thể đưa nhiều vật thể khác nhau lên khuôn mặt của bạn thông qua TrueDepth một cách chân thực.

Apple tiếp tục nâng cao khả năng xử lý và giới thiệu tính năng mới, trong đó có tính năng điều chỉnh khẩu độ trên iPhone XR và iPhone XS. Tại WWDC19 năm nay, Apple còn tiết lộ một số nâng cấp phần mềm cho Vision và CoreML, bao gồm khả năng nhận diện tiên tiến và công cụ Machine Learning (ML) thông minh có thể phân tích điểm nội bật hay tính chất bức ảnh, chữ viết hay các dạng dữ liệu khác, chia sẻ thông minh giữa các hệ điều hành iOS 13, iPadOS, tvOS và macOS Catalina.

Apple cũng phác thảo một mô hình ML mới, theo đó điện thoại sẽ tự học và điều chỉnh theo thói quen của người dùng một cách an toàn và riêng tư. Ban đầu, Apple chỉ sử dụng mô hình này trong nội bộ để Face ID có thể nhận biết các thay đổi trên khuôn mặt của bạn, nhưng giờ đây, ứng dụng từ bên thứ ba đã có thể tự xây dựng mô hình ML thông minh riêng để cá nhân hóa thiết bị của bạn thậm chí còn tốt hơn bản gốc. Và một lần nữa, mô hình này hoàn toàn riêng tư vì chúng hoạt động trên chính chiếc điện thoại của bạn thông qua bộ xử lý trên thiết bị thay vì chuyển dữ liệu lên đám mây để lưu trữ và chia sẻ cho các đối tác một cách bừa bãi như Amazon, Facebook và Google đã làm.

Apple còn sử dụng TrueDepth để phát hiện khi nào bạn nhìn vào điện thoại và khi nào không. Tính năng này nhằm tắt màn hình và khóa điện thoại nhanh hơn mỗi khi bạn không sử dụng, hoặc tiếp tục sáng màn hình và hoạt động khi bạn đang đọc một bài báo dài hay đang xem video, kể cả khi bạn không chạm vào màn hình. Nền tảng này cũng được chia sẻ với các nhà phát triển ứng dụng để họ có thể xây dựng cơ chế tương tự trên ứng dụng của mình.

Các hãng công nghệ khác khó mà bắt kịp

Các nền tảng di động khác đang gặp khó khăn ngày càng lớn để bắt kịp Apple bởi vì họ không đầu tư vào phát triển hệ điều hành, nền tảng và phần cứng nhiều như Apple đã làm. Microsoft đã mất hảng tỉ đô để phát triển Window Phone và Window Mobile, nhưng cuối cùng lại không thể thu hút người dùng cũng như các các nhà phát triển ứng dụng chuyển qua nền tảng của họ.

Google là hãng nhanh nhất trong việc sao chép các tính năng nổi trội của Apple để đưa lên Android và thêm vào một số tính năng riêng của mình, bao gồm tính năng chụp ban đêm trên điện thoại Pixel. Nhưng chính vì doanh số bán ra của Pixel thấp, do đó nỗ lực vung tiền của Google có thể xem là một thất bại. Hơn nữa, những nhà phát triển của Google chỉ mang những tính năng độc nhất lên Pixel nhưng lại không cho phép bên thứ ba tiếp cận các công nghệ này như Apple đã làm.

Google đã giới thiệu công nghệ ML mới, nhưng chúng gần như được thiết kế chỉ để thu thập dữ liệu người dùng.

Cả hai tính năng Pixel camera và ML giúp nhận biết hình ảnh, mã vạch của ứng dụng Google Lens đều là sản phẩm độc quyền. Google không cho phép bên thứ ba sử dụng nền tảng này. Và trong khi hãng này đang cố tạo ra phiên bản Potrait của riêng mình mà chỉ sử dụng ML thay vì camera kép hay cụm cảm biến chiều sâu như trên iPhone X, thực tế đã cho thấy rằng các tính năng của Google đều có giới hạn và thiếu ống kính zoom quang học, hệ thống hình ảnh khuôn mặt 3D để hỗ trợ cho các tính năng như Portrait Lighting, Face ID hay Animoji.

Chính vì các điện thoại Android có giá trung bình chỉ từ 250 đô-la Mỹ trở xuống, dó đó các hãng điện thoại sử dụng Android còn ngần ngại trong việc sử dụng các cảm biến hiện đại như TrueDepth hoặc các con chip mạnh mẽ để xử lý hình ảnh và các phép toán liên quan đến mạng thần kinh. Mặc dù doanh số điện thoại sử dụng hệ điều hành Android lên đến hàng trăm triệu máy, nhưng số lượng máy cao cấp bán ra còn thua xa iPhone. Vì vậy, tương tự như trường hợp của Window Phone, các nhà phát triển ứng dụng thích thú và làm việc hiệu quả hơn trên nền tảng iOS, chứ không phải Android.

Cả hai hãng Microsoft và Google đều đã bắt đầu trước Apple trong công nghệ quét chiều sâu ảnh, nhưng Microsoft chỉ mới dừng lại ở bộ điều khiển bằng cơ thể trên Xbox Kinect và trên thiết bị Tango của Google dự kiến sẽ sử dụng cảm biến chiều sâu ảnh ở mặt sau thiết bị như một camera sau. Apple nhận định rằng cảm biến chiều sâu ảnh của họ sẽ thông minh và mạnh mẽ hơn khi hướng đến người dùng, cho phép sử dụng các tính năng hiện đại mà hãng đã giới thiệu cho đến nay, bao gồm tính năng Attention Correction mới được cập nhật trên Facetime.

Minh Bảo Theo Appleinsider

Chủ đề khác