Termina el mes de octubre, estamos cada vez más cerca de empezar un nuevo año, el cual promete sorprendernos con las tan esperadas gafas de Apple, mientras tanto, la marca de la manzana mordida nos ha sorprendido con la tecnología LiDAR, la cual según expertos podría funcionar en combinación de radar para detectar el entorno alrededor del usuario cuando utiliza las Apple Glass.

 iOSMac Apple Glass y LiDAR podrían aprovechar sus tecnologías

Este año hemos tenido fuertes rumores sobre las Apple Glass, se espera que salgan a la luz muy pronto y nos sorprendan como todos los artículos de la marca de la manzana mordida, uno de los problemas que más han sido mencionados es que la luz es demasiado baja para que pueda ver con claridad cuando se trata de las funciones de realidad aumentada.

Apple nos da pistas de como funcionaría el sensor LiDAR en dispositivos como el iPhone 12 Pro, una de ellas es que lo usa para ayudar con el enfoque automático, sin embargo, cabe mencionar que esa ayuda para el enfoque es particularmente útil en entornos con poca luz, por lo tanto, muchos sugieren que Apple tiene planes para explotar esa capacidad y así ayudar a los usuarios de las tan esperadas Apple Glass.

 iOSMac Apple Glass y LiDAR podrían aprovechar sus tecnologías

Se ha dado a conocer, además, que la marca de la manzana mordida ha presentado una patente llamada “Pantalla montada en la cabeza con funcionamiento con poca luz” que describe múltiples formas de detectar el entorno alrededor del usuario de una pantalla montada en la cabeza (HMD). Apple presenta esta patente bajo la premisa “Los ojos humanos tienen diferente sensibilidad en diferentes condiciones de iluminación”.

Luego continúa mencionando la visión fotópica, la cual se describe como el funcionamiento del ojo durante “altos niveles de luz ambiental… como la luz del día” advirtiendo que la visión mesópica u otras formas de visión, en comparación, se comportan mal y pueden resultar en una pérdida de la visión del color, cambios en la sensibilidad a diferentes longitudes de onda de luz, agudeza reducida y más desenfoque de movimiento”, dice Apple.

Seguimiento de la mirada para imágenes de realidad mixta en las Apple Glass con LiDAR

Por este motivo es que, en condiciones de poca luz, como cuando se basa en la visión escotópica, una persona es menos capaz de ver el entorno que en condiciones de buena iluminación Apple propone utilizar sensores en un HMD, concretamente en sus “Apple Glass”, registrando el entorno circundante y transmitiendo al usuario como “contenido gráfico” no especificado y la clave está en detectar distancias entre objetos, es decir detectar la profundidad.

 iOSMac Apple Glass y LiDAR podrían aprovechar sus tecnologías

Entre los ejemplos de sensores tenemos por un lado el sensor de profundidad que puede ser un sensor de detección y rango de radar (RADAR) y por otro lado un sensor de detección y rango de luz (LIDAR), cabe señalar que se pueden utilizar uno o varios tipos de sensores de profundidad, por ejemplo, incorporando uno o más de un sensor de luz estructurado, una cámara de tiempo de vuelo, un sensor RADAR y / o un sensor LIDAR, dando una pista de la tecnología que podría estar presente en las Apple GLASS.

La marca de la manzana mordida menciona algo más, “Dispositivos de mejora de imagen con seguimiento de mirada” esta, es otra solicitud de patente recientemente revelada la cual se centra en presentar imágenes de RA cuando un usuario puede estar moviendo la cabeza. Apple menciona que “La presentación de imágenes de realidad mixta a un usuario puede, por ejemplo, verse interrumpida por el movimiento de la cabeza y los ojos” acotando que es en verdad un reto, pero el resultado de esta tecnología será excepcional.

 iOSMac Apple Glass y LiDAR podrían aprovechar sus tecnologías

Es de conocimiento que los usuarios pueden tener diferentes capacidades visuales, por lo que Apple indica que “Si no se tiene cuidado, se presentarán imágenes de realidad mixta que causan desorientación o mareos y que dificultan al usuario la identificación de elementos de interés” por este motivo Apple propone usar lo que parece una idea muy similar a la asistencia LiDAR en entornos con poca luz.

Apple menciona que el dispositivo podría almacenar sobre la “información de visión de un usuario, como la agudeza visual del usuario, la sensibilidad al contraste, el campo de visión y las distorsiones geométricas”, además de las preferencias que el usuario pueda establecer, lo cual sumado a la tecnología de imagen de realidad mixta se puede presentar como una solución que minimice la desorientación.

 iOSMac Apple Glass y LiDAR podrían aprovechar sus tecnologías

Apple menciona como un ejemplo, que una parte de una imagen del mundo real se puede ampliar para un usuario con baja visión solo cuando el punto de mira del usuario es relativamente estático para evitar inducir efectos de mareo, esta patente está relacionada con el uso del seguimiento de la mirada que incorporan las Apple Glass con el fin de equilibrar la calidad de la imagen con la duración de la batería al modificar la resolución de lo que está mirando el usuario. Esperamos que toda esta información la podamos disfrutar en el futuro muy cercano.

Quieres comprar un iPhone, iPad, MacBook o cualquier dispositivo tecnológico al mejor precio, en este canal se publican las mejores ganas y ofertas.