El sofisticado sistema de seguimiento de la cabeza como el integrado en el iPhone X puede haber sido diseñado para propósitos de seguridad y AR, pero también puede resultar muy útil para personas con discapacidades. Una aplicación de prueba de concepto de un pasante de eBay muestra cómo alguien con muy poca función motora puede navegar por el sitio con nada más que movimientos de cabeza.
Muratcan Çiçek es una de esas personas y depende de la tecnología de asistencia todos los días para leer, trabajar y moverse. Este año estaba haciendo una pasantía en eBay y decidió crear una herramienta que ayudaría a las personas con discapacidades motoras como la suya a comprar en línea. Resulta que hay muchas herramientas de uso general para la accesibilidad, como permitir que un usuario controle un cursor con los ojos o un joystick, pero nada creado solo para navegar en un sitio como eBay o Amazon.
Su creación, HeadGaze, se basa en la matriz de sensores frontales del iPhone X (a través de ARKit) para rastrear los movimientos de la cabeza del usuario. Los diferentes movimientos corresponden a diferentes acciones en una aplicación de demostración que muestra las ofertas diarias del minorista en línea: navegue por categorías y productos inclinando la cabeza completamente en varias direcciones, o inclínela parcialmente hacia abajo para comprar, guardar o compartir.
Puede verlo en acción en el breve video a continuación:
No es que se trate de una gran revolución en la interfaz, hay algunas aplicaciones y servicios que hacen esto, aunque quizás no de una manera tan sencilla y extensible como esta.
Pero es fácil subestimar la carga cognitiva que se crea cuando alguien tiene que navegar por una interfaz de usuario diseñada para los sentidos o las extremidades que no tiene. Crear algo como esto no es necesariamente simple, pero es útil y relativamente sencillo, y los beneficios para una persona como Çiçek son sustanciales.
Probablemente por eso hizo que el proyecto HeadGaze fuera de código abierto. puede obtener todo el código y la documentación en GitHub; Todo está en Swift y actualmente solo funciona en el iPhone X, pero es un comienzo.
Teniendo en cuenta que este fue un proyecto de verano de un pasante, no hay muchas excusas para que las empresas con miles de desarrolladores no tengan algo así disponible para sus aplicaciones o escaparates. Y no es como si no pudieras pensar en otras formas de usarlo. Como escribe Çiçek:
HeadGaze te permite desplazarte e interactuar en tu teléfono con solo movimientos sutiles de la cabeza. Piense en todas las formas en que esto podría cobrar vida. ¿Está cansado de intentar desplazarse por una receta en la pantalla de su teléfono con los dedos grasientos mientras cocina? ¿Demasiado complicado para seguir el manual de instrucciones de tu teléfono celular mientras juegas con el motor del auto debajo del capó? ¿Demasiado frío para quitarse los guantes y usar el teléfono?
Él y sus colegas también están investigando el seguimiento de la mirada real para aumentar los movimientos de la cabeza, pero eso todavía está lejos. Quizás puedas ayudar.
Source link