Ícono del sitio La Neta Neta

Los iPhones ahora pueden decirle a los usuarios ciegos dónde y qué tan lejos están las personas

Lo que nos dice el iPhone 12 sobre el estado de la industria de los teléfonos inteligentes en 2020

manzana ha incluido una nueva e interesante característica de accesibilidad en la última versión beta de iOS: un sistema que detecta la presencia y la distancia a las personas en la vista de la cámara del iPhone, de modo que los usuarios ciegos pueden distanciarse socialmente de manera efectiva, entre muchas otras cosas.

La función surgió del ARKit de Apple, para el cual la compañía desarrolló la “oclusión de personas”, que detecta las formas de las personas y permite que los elementos virtuales pasen por delante y por detrás de ellas. El equipo de accesibilidad se dio cuenta de que esto, combinado con las mediciones de distancia precisas proporcionadas por las unidades lidar en el iPhone 12 Pro y Pro Max, podría ser una herramienta extremadamente útil para cualquier persona con discapacidad visual.

Por supuesto, durante la pandemia uno piensa inmediatamente en la idea de mantenerse a dos metros de distancia de otras personas. Pero saber dónde están los demás y a qué distancia es una tarea visual básica que usamos todo el tiempo para planificar por dónde caminamos, en qué fila nos metemos en la tienda, si debemos cruzar la calle, etc.

La nueva función, que será parte de la aplicación Magnifier, utiliza la cámara lidar y gran angular del Pro y Pro Max, brindando retroalimentación al usuario de varias maneras.

El lidar del iPhone 12 Pro se muestra en este video de infrarrojos. Cada punto informa la distancia precisa de la que se refleja.

Primero, le dice al usuario si hay personas a la vista. Si alguien está allí, dirá qué tan lejos está la persona más cercana en pies o metros, actualizándose regularmente a medida que se acercan o se alejan. El sonido corresponde en estéreo a la dirección en la que se encuentra la persona a la vista de la cámara.

En segundo lugar, permite al usuario establecer tonos correspondientes a determinadas distancias. Por ejemplo, si establecen la distancia en seis pies, escucharán un tono si una persona está a más de seis pies de distancia, otro si está dentro de ese rango. Después de todo, no todo el mundo quiere una alimentación constante de distancias exactas si lo único que les importa es mantenerse a dos pasos de distancia.

La tercera característica, quizás más útil para las personas que tienen discapacidades visuales y auditivas, es un pulso háptico que se acelera a medida que la persona se acerca.

La última es una función visual para las personas que necesitan un poco de ayuda para discernir el mundo que les rodea, una flecha que apunta a la persona detectada en la pantalla. La ceguera es un espectro, después de todo, y cualquier número de problemas de visión podría hacer que una persona quisiera un poco de ayuda en ese sentido.

El sistema requiere una imagen decente en la cámara gran angular, por lo que no funcionará en la oscuridad total. Y aunque la restricción de la función a la gama alta de la línea de iPhone reduce un poco el alcance, la utilidad en constante aumento de un dispositivo de este tipo como una especie de prótesis visual probablemente hace que la inversión en el hardware sea más aceptable para las personas que lo necesitan.

Esta está lejos de ser la primera herramienta como esta: muchos teléfonos y dispositivos dedicados tienen funciones para encontrar objetos y personas, pero no es frecuente que se incorpore como una función estándar.

La detección de personas debería estar disponible para iPhone 12 Pro y Pro Max con la versión candidata de iOS 14.2 que acaba de estar disponible hoy. Es de suponer que los detalles aparecerán pronto en el sitio dedicado a la accesibilidad del iPhone de Apple.


Source link
Salir de la versión móvil