¿Cómo sabe una computadora dónde está buscando?

Imagínese conduciendo un automóvil, usando una proyección de visualización frontal en el parabrisas para navegar a través de una ciudad desconocida. Esto es realidad aumentada (AR); la información se usa no solo para guiarlo a lo largo de una ruta, sino también para alertarlo sobre información relevante en su entorno, como ciclistas o peatones. La ubicación correcta del contenido virtual no solo es crucial, sino también una cuestión de vida o muerte.

La información no puede ocultar otro material, y debe mostrarse el tiempo suficiente para que usted lo entienda, pero no mucho más. Los sistemas informáticos tienen que hacer estas determinaciones en tiempo real, sin causar que ninguna información distraiga o moleste. ¡Ciertamente no queremos una advertencia sobre un ciclista a punto de cruzar frente al auto para ocultar al ciclista ella misma!

Como investigador en AR, dedico mucho tiempo tratando de encontrar la forma de obtener la información correcta en la pantalla de un usuario, en el lugar correcto, en el momento adecuado. Aprendí que mostrar demasiada información puede confundir al usuario, pero no mostrar lo suficiente puede inutilizar una aplicación. Tenemos que encontrar el punto dulce en el medio.

Un elemento crucial de esto, resulta, es saber dónde buscan los usuarios. Solo entonces podemos entregar la información que desean en un lugar donde puedan procesarla. Nuestra investigación consiste en medir dónde el usuario está mirando en la escena real, como una forma de ayudar a decidir dónde colocar el contenido virtual. Con AR preparado para infiltrarse en muchas áreas de nuestras vidas, desde conducción a trabajo a recreación - Tendremos que resolver este problema antes de poder confiar en que AR proporcionará soporte para acciones graves o críticas.

Determinar dónde poner información

Tiene sentido que la información aparezca donde el usuario está mirando. Al navegar, un usuario puede mirar un edificio, una calle u otro objeto real para revelar la información virtual asociada; el sistema sabría ocultar todas las demás pantallas para evitar saturar la escena visible.


gráfico de suscripción interior


¿Pero cómo sabemos lo que alguien está mirando? Resulta que los matices de la visión humana nos permiten examinar a los ojos de la persona y calcular dónde están buscando. Al combinar esos datos con cámaras que muestran el campo de visión de una persona, podemos determinar qué está viendo la persona y qué está mirando.

Los sistemas de seguimiento ocular surgieron por primera vez en los 1900. Originalmente se usaban principalmente para estudiar patrones de lectura; algunos pueden ser muy intrusivos para el lector. Más recientemente, ha surgido el seguimiento ocular en tiempo real y se vuelve más asequible, más fácil de operar y más pequeño.

Los rastreadores de ojos se pueden unir a pantalla o integrado en gafas portátiles o pantallas montadas en la cabeza. Los ojos se rastrean usando una combinación del cámaras, proyecciones y algoritmos de visión por computadora para calcular la posición del ojo y el punto de mirada en un monitor.

Por lo general, observamos dos medidas al examinar los datos de seguimiento de los ojos. El primero se llama fijación, y se usa para describir cuándo hacemos una pausa en nuestra mirada, a menudo en una ubicación interesante en una escena porque nos ha llamado la atención. El segundo es un sacada, uno de los rápidos movimientos oculares utilizados para posicionar la mirada. Los períodos cortos de fijación son seguidos por movimientos rápidos, llamados movimientos sacádicos. Básicamente, nuestros ojos se mueven rápidamente de un lugar a otro captando información sobre partes de una escena. Nuestros cerebros luego juntan la información de estas fijaciones para formar una imagen visual en nuestras mentes.

{youtube}tdFIvRMvFQI{/youtube}

Combinando el seguimiento de ojos con AR

A menudo, el contenido de AR está anclado a un objeto o ubicación del mundo real. Por ejemplo, una etiqueta virtual que contenga el nombre de una calle debe mostrarse en esa calle. Idealmente, nos gustaría que las etiquetas AR aparezcan cerca del objeto real al que está asociado. Pero también debemos tener cuidado de no permitir que múltiples etiquetas AR se superpongan y se vuelvan ilegibles. Hay muchos enfoques para administrar la colocación de etiquetas. Estamos explorando una opción: calcular dónde se ve la persona en la escena real y mostrar las etiquetas AR solo en ese lugar.

Digamos, por ejemplo, que un usuario está interactuando con una aplicación móvil que lo ayuda a comprar cereales bajos en calorías en la tienda de comestibles. En la aplicación AR, cada cereal tiene información calórica asociada. En lugar de levantar físicamente cada caja de cereal y leer el contenido nutricional, el usuario puede sostener su dispositivo móvil y apuntarlo a una caja de cereal en particular para revelar la información relevante.

Pero piense en lo apretado que está el pasillo de cereal de una tienda con varios paquetes. Sin una forma de administrar la visualización de las etiquetas AR, se mostrarán las etiquetas de información de calorías para todas las cajas de cereal. Sería imposible identificar el contenido calórico del cereal en el que está interesado.

Al rastrear sus ojos, podemos determinar qué caja de cereal individual está mirando el usuario. Luego mostramos la información de calorías para ese cereal en particular. Cuando cambia su mirada a otra caja, mostramos las figuras para la próxima que considera. Su pantalla está despejada, la información que quiere está disponible y cuando necesita información adicional, podemos mostrarla.

Este tipo de desarrollo lo convierte en un momento emocionante para la investigación AR. Nuestra capacidad para integrar escenas del mundo real con gráficos de computadora en pantallas móviles está mejorando. Esto alimenta la posibilidad de crear aplicaciones nuevas e impresionantes que amplíen nuestra capacidad de interactuar, aprender y entretenerse con el mundo que nos rodea.

Sobre el Autor

Ann McNamara, Profesora Asociada de Visualización, Universidad Texas A & M

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados

at