Seleccionar página

Apple ha mostrado al mundo el iPhone 12 y, al igual que el nuevo iPad Pro, viene con una nueva función: un láser LiDAR y un escáner. Si bien la tecnología se puede usar para muchas cosas, Apple la está usando por un par de razones, pero principalmente para reforzar las capacidades de Realidad Aumentada (AR) de iOS y como una forma de ayudar a la cámara del iPhone 12 a enfocarse con poca luz.

Google tampoco es ajeno a AR, y es posible que recuerde haber escuchado sobre el método de Tango Google para construir una potencia de AR para dispositivos móviles. Tango usó sensores especiales para crear una experiencia AR bastante buena, pero el proyecto se cerró una vez que ARCore nos ayudó a obtener tanta AR como queríamos con solo cámaras normales.

A su vez, también hemos visto teléfonos Android que utilizan un sensor de tiempo de vuelo (ToF) para mejorar el enfoque en todas las condiciones de iluminación. ToF es un término genérico que mide cuánto tarda la luz en recuperarse cuando se proyecta y algunas matemáticas pueden convertir eso en una distancia exacta. Los desarrollos de software y las mejores capacidades de aprendizaje automático también han eliminado en su mayoría los sensores ToF.

Apple ha hecho lo contrario y está volviendo a traer un equipo de detección especial en el lado del hardware. ¿Debe Google hacer lo mismo?

¿Qué es LIDAR?

LiDAR significa Light Detection and Ranging y es una forma de crear un mapa tridimensional de lo que sea que esté enfocado.

Un sistema LiDAR consta de un láser y un receptor; el láser emite luz pulsada y el receptor mide el tiempo que tarda la luz en recuperarse. No es una tecnología nueva que su robot aspirador probablemente use, y la NOAA la ha usado para recrear y modelar la superficie de la tierra desde hace un tiempo, aunque Apple no está haciendo las cosas tan bien.

En el iPad Pro 2020, LiDAR se usa para crear una "imagen" de lo que ve la cámara, por lo que las aplicaciones que tienen un componente AR pueden usarlo para agregar animaciones e imágenes estáticas a la pantalla exactamente en el lugar correcto.

(se abre en una pestaña nueva)

Una foto publicada por en

Sí, eso se ve bien. También es algo que probablemente podría hacerse sin usar ningún sensor especial, aunque Apple parece pensar que son necesarios. Es difícil discutir con los ingenieros que diseñaron el nuevo iPad, así que seguiré con la idea de que el sensor LiDAR mejora las cosas.

Proyecto Tango y ARCore

Google presentó Project Tango en 2014 como un proyecto paralelo del equipo de ATAP, y fue igualmente genial. Llegó a los dispositivos de consumo de ASUS y Lenovo, y funcionó tan bien como lo hizo en el laboratorio: un dispositivo Tango como el Lenovo Phab 2 Pro podía mapear su entorno y almacenar los datos para que los desarrolladores de AR pudieran agregar extras.

En 2017, Google cerró Project Tango a favor de ARCore. Debutando en el Pixel 2, se demostró con nuevas pegatinas y animaciones en la aplicación de cámara de Google, pero hay muchas aplicaciones en Google Play que utilizan ARCore.

¿Por qué Google hizo lo contrario de Apple aquí, comenzando con hardware adicional y luego trabajando para eliminar la necesidad? Es una incógnita. Es posible que Google haya encontrado una manera de reducir los costos y aún así fue lo suficientemente buena, o tal vez la adopción no fue lo suficientemente fuerte como para continuar construyendo dispositivos con sensores costosos. De cualquier manera, Tango se ha ido, ARCore es el reemplazo y funciona razonablemente bien.

Los teléfonos Android tienen mejores cámaras.

Fuente: Harish Jonnalagadda / Android Central (Crédito de la imagen: Fuente: Harish Jonnalagadda / Android Central)

Todavía encontrará sensores adicionales utilizados además del resto del hardware en cada teléfono, pero la mayoría de las empresas no están haciendo ningún cálculo de ToF utilizando un sensor dedicado por las razones descritas anteriormente. En cambio, los avances en el aprendizaje automático en el dispositivo han hecho que algunos de los mejores teléfonos con Android, como el Pixel de Google, el Galaxy Note 20 Ultra de Samsung y el Mate 30 pro de Huawei, tengan cámaras mejores que las que Apple podría ofrecer.

Apple hace todo muy lenta y constantemente. La idea de usar LiDAR para mejorar la plataforma AR de Apple o incorporarla a la cámara no es algo que la compañía soñó con los tacos la semana pasada. Después de mucho tiempo y dinero, Apple decidió que la inclusión de LiDAR podría ayudar a convertir la cámara del iPhone de "una de las mejores" a "una de las mejores" y eso es importante para la empresa, como debería ser.

¿Los sensores necesitan volver a Android?

Fuente: Android Central (Crédito de la imagen: Fuente: Android Central)

Esa es la pregunta del millón, ¿no? Apple hizo AR usando solo las cámaras estándar por un tiempo, y solo porque el nuevo iPhone y iPad Pro tienen un paquete de sensor LiDAR no significa que AR en modelos más antiguos dejará de funcionar. Aún así, Apple debe tener un plan porque el hardware no es barato, y agregarlo solo para decir "¡mira esto!" No es así como se hacen las cosas en el competitivo mundo del hardware móvil. Apple debe tener un plan.

Google puede ser capaz de construir algo más grande y mejor con LiDAR, pero creo que, en cambio, buscarán inventar nuevas tecnologías en lugar de reutilizar ideas antiguas.

Si me preguntara qué creo que le depara el futuro a una tableta con un paquete de sensor LiDAR, instantáneamente pensaría en vincularlo a los datos de ubicación. Eso es para lo que se diseñó originalmente LiDAR y cómo NOAA lo usa hoy.

AR es divertido, pero también es útil. Google usó Tango para construir un sistema de mapeo de interiores que brindaba señales audibles a las personas con baja visión para que supieran dónde pisar de manera segura. Con un sistema de ubicación preciso, ese mapa solo necesita "dibujarse" una vez, y luego las verificaciones en tiempo real solo necesitan buscar cambios que puedan haber ocurrido desde el original. Y esos cambios luego podrían cambiarse en el mapa "maestro".

La mayoría de las personas no usará una tableta para navegar en interiores, pero la idea de que el mundo se puede construir en la nube usando un sensor LiDAR podría dar lugar a otras aplicaciones. Imagina ver a alguien capturar un Pokémon en tu pantalla mientras juega Pokémon Go en la suya. O una aplicación que podría actuar como una guía turística virtual en la pantalla porque sabe dónde estás y qué dibujar.

The Floor is Lava parece un juego genial, pero podría haber sido un juego genial sin LiDAR. Y las cámaras del iPhone eran realmente buenas antes de la adición de LiDAR, pero agregarlo hará mejores fotos con poca luz. Apple podría haber hecho lo mismo utilizando el aprendizaje automático como lo hicieron Google, Huawei o Samsung.

Google siempre se ha centrado en impulsar Android a través del software.

No es probable que Google intente incorporar LiDAR en Android, y esta vez los fabricantes de teléfonos realmente no pueden hacerlo sin la ayuda de Google. Agregarlo podría mejorar Android de alguna manera y abrir una nueva tecnología para hacer que nuestros teléfonos sean "conscientes" de dónde están y qué estamos haciendo, pero simplemente no veo una necesidad real de hacerlo.

Google siempre se ha esforzado por impulsar los teléfonos Android a través del software y hasta ahora ha hecho un gran trabajo. Estoy bastante seguro de que seguirá siendo así y cualquier sensor nuevo será una prueba de concepto, como lo fue el Desbloqueo facial de Pixel 4. No importa que Google esté dispuesto a correr el riesgo y podría hacerlo mejor porque se está enfocando en construir nuevas ideas en lugar de reutilizar las viejas.

Video: