El seguimiento ocular ha sido durante mucho tiempo uno de los santos griales de la computación. Ya sea que se trate de problemas de accesibilidad, la apertura de nuevos factores de forma o simplemente tratar de dar un giro novedoso a las formas en que interactuamos con nuestros dispositivos, décadas de productos electrónicos de consumo están llenas de intentos de usar la mirada para desbloquear una nueva forma de entrada.
El pensamiento detrás del insignificante nombre de la Universidad Carnegie Melon EyeMU (Supongo que “UCI” es un poco intenso) es simple. Los teléfonos son grandes en estos días. Si alguna vez ha intentado usar un buque insignia moderno con una sola mano, conoce los puntos débiles inherentes. Si tiene suerte, tal vez pueda tocar un ícono con el pulgar mientras toma un café con la otra mano.
Si bien la mayoría de los intentos anteriores se han quedado cortos, los teléfonos actuales cuentan con una variedad de tecnologías diferentes que podrían ayudar a desbloquear esta funcionalidad de forma natural. Recuerdo haber probado algunos televisores con seguimiento ocular hace años y sentir el mismo tipo de frustración que uno encuentra cuando intenta ver la imagen en 3D en uno de esos carteles de Magic Eye. Sin embargo, una combinación de un buen hardware de cámara frontal, Face Mesh de Google y los algoritmos adecuados podría contribuir a responder y predecir la intención del usuario.
“Las grandes empresas de tecnología como Google y Apple se han acercado bastante a la predicción de la mirada, pero no basta con mirar algo solo”, dice el profesor asociado Chris Harrison en un comunicado. “La verdadera innovación en este proyecto es la adición de una segunda modalidad, como mover el teléfono hacia la izquierda o hacia la derecha, combinada con la predicción de la mirada. Eso es lo que lo hace poderoso. Parece tan obvio en retrospectiva, pero es una idea inteligente que hace que EyeMU sea mucho más intuitivo”.
La otra clave aquí, creo, es no intentar hacer todo solo con los ojos. Se requiere una entrada más tradicional, pero el video muestra cómo los investigadores pueden hacer mucho basándose en una combinación de mirada y gestos. Toma una aplicación de fotos. Mirar una imagen la selecciona. Al acercarlo a la cara, se acerca y al mover el teléfono hacia la izquierda o hacia la derecha se aplican filtros. Lo más emocionante aquí es cuánto de esto se puede hacer con el hardware existente como una forma de complementar la entrada táctil y de voz.
Source link