Esta semana muchos medios se hicieron eco de una nueva característica introducida en la beta 3 de iOS 13. Se trata de una llamativa función de FaceTime que “corrige” la dirección de la mirada del interlocutor. Pero, ¿cómo hemos llegado hasta aquí? En la presente publicación hablaremos del largo camino evolutivo de FaceTime tanto a nivel software como a nivel hardware.
Este interesante avance en las videollamadas móviles, si bien aún muestra fallas, ha sido catalogado como “mágico” por muchos especialistas del rubro. Es que, la evolución del sistema ha sido lenta pero, por fin, los iPhone harán uso de sus últimos modelos de procesador para mejorar (también) las videollamadas.
La “corrección de atención” es el último eslabón de un largo camino evolutivo de FaceTime. Y no es una coincidencia que solo funcione en modelos con chip A12 Bionic. Esto se debe a que el hardware es el que se encarga del ajuste de la imagen, y el que permitirá que nuestros ojos parezcan naturales y “enfocados” en la cámara incluso si estamos mirando hacia otro lado.
De hecho, muchos auguran un avance prácticamente inalcanzable (hoy en día) para la competencia de la manzana. Al parecer, estas innovaciones serían resultado de una serie de tecnologías y desarrollos de software que tienen varios años de trabajo detrás.
La “corrección de atención” es el último eslabón de un largo camino evolutivo de FaceTime…
Y lo primero que se nos viene a la mente son las mejoras en profundidad de imágenes (que conocimos en la WWDC 17), el modo Retrato y las excelentes funciones que, desde entonces, tenemos en Cámara. De hecho, Apple ha permitido luego a los desarrolladores de terceros acceder a estos mismos datos para crear sus propias herramientas.
A esto se debe agregar la llegada de otras tecnología tanto o más importantes. Y aquí estamos hablando de los marcos Vision, CoreML y ARKit para la gestión de la realidad aumentada.
Con todo ello sobre el plano, era complicado adivinar cómo se unirían todas estas piezas. Y la respuesta fue “Portrait Lighting” (2017), nombre que le dio Apple a la mayor adquisición de datos de profundidad que explota las tecnologías AR especialmente en la cara del fotografiado creando una superposición gráfica que simula la iluminación de estudio aislando al sujeto del fondo.
El siguiente paso fue el iPhone X, que además de una cámara trasera doble se presentó con la TrueDepth delantera, capaz de capturar mapas de profundidad e imágenes en color por separado. Todo ello sin adentrarnos en otros beneficios como el FaceID y los Animoji.
Un año después, Apple introdujo (con el iPhone XS) la capacidad de ajustar la profundidad de campo incluso después de disparar. Y, en la última WWDC 19, nos mostró los nuevos avances en Vision y CoreML, que incluyen funciones de reconocimiento avanzadas y herramientas inteligentes de ML para analizar imágenes, texto y otros.
TrueDepth será capaz de detectar la atención del usuario y reconocer cuándo está mirando el iPhone o el iPad…
Los de la manzana también han desarrollado un nuevo tipo de “machine learning“, gracias al cual el dispositivo puede aprender y adaptarse de manera segura (mediante FaceID) al comportamiento del usuario. Abriendo luego esta tecnología también a desarrolladores (sin enviar datos personales a servidores).
Ahora, TrueDepth será capaz de detectar la atención del usuario y reconocer cuándo está mirando el teléfono o la tablet. Y se espera que sea útil también para bloquear el dispositivo más rápidamente o incluso para no hacerlo si se está leyendo un artículo, por ejemplo.