iOS 14 permite a los usuarios sordos establecer alertas para sonidos importantes, entre otras ventajas inteligentes de accesibilidad

iOS 14 permite a los usuarios sordos establecer alertas para sonidos importantes, entre otras ventajas inteligentes de accesibilidad

by

in

La última versión de iOS agrega algunas funciones inteligentes destinadas a personas con discapacidad auditiva y visual, pero algunas de ellas pueden ser útiles para casi cualquier persona.

La nueva característica más atractiva es quizás el Reconocimiento de sonido, que crea una notificación cada vez que el teléfono detecta una de una larga lista de ruidos comunes que los usuarios pueden querer tener en cuenta. Sirenas, ladridos de perros, alarmas de humo, bocinas de automóviles, timbres, agua corriente, pitidos de electrodomésticos: la lista es bastante extensa. Una compañía llamada Furenexo hizo un dispositivo que hizo esto hace años, pero es bueno tenerlo incorporado.

Los usuarios pueden hacer que las notificaciones vayan a su Apple Mire también, en caso de que no siempre quieran revisar su teléfono para verificar si el horno ha alcanzado la temperatura. Apple también está trabajando para agregar más sonidos de personas y animales, por lo que el sistema tiene espacio para crecer.

La utilidad de esta función para las personas con discapacidad auditiva es obvia, pero también es agradable para cualquiera que se pierda en su música o podcast y olvide que dejó salir al perro o espera un paquete.

Otra novedad en el departamento de audio es lo que Apple llama un “audiograma personal”, que equivale a una configuración de ecualización personalizada basada en qué tan bien escuchas las diferentes frecuencias. No es una herramienta médica, no es para diagnosticar la pérdida de audición ni nada, pero un puñado de pruebas de audio pueden determinar si ciertas frecuencias deben aumentarse o amortiguarse. Desafortunadamente, la función solo funciona, por alguna razón, con auriculares con la marca Apple.

Las conversaciones de texto en tiempo real son un estándar de accesibilidad que básicamente envía chat de texto a través de protocolos de llamadas de voz, lo que permite conversaciones fluidas y acceso a servicios de emergencia para personas no verbales. Los iPhones lo admiten desde hace algún tiempo, pero ahora los usuarios no necesitan estar en la aplicación de llamadas para que funcione: realice una llamada mientras juega o mira un video, y la conversación aparecerá en las notificaciones.

Una última característica destinada a personas con discapacidad auditiva es un cambio oculto para llamadas grupales FaceTime. Normalmente, el video cambia automáticamente a quien habla, pero, por supuesto, el lenguaje de señas es silencioso, por lo que el video no se centrará en ellos. Hasta iOS 14 de todos modos, en el que el teléfono reconocerá los movimientos como lenguaje de señas (aunque no cualquier signo específico) y cambiará la vista a ese participante.

Cambio de imagen de VoiceOver

Las funciones de accesibilidad de Apple para quienes tienen poca o ninguna visión son sólidas, pero siempre hay espacio para crecer. VoiceOver, la función de lectura de pantalla inteligente que existe desde hace más de una década, se ha mejorado con un modelo de aprendizaje automático que puede reconocer más elementos de interfaz, incluso si no se han etiquetado correctamente, y en aplicaciones y contenido de terceros también. Esto también está llegando al escritorio, pero todavía no.

Las chuletas descriptivas de iOS también se han actualizado, y al analizar el contenido de una foto ahora puede relacionarlas de una manera más rica. Por ejemplo, en lugar de decir “dos personas sentadas”, podría decir, “dos personas sentadas en un bar tomando una copa”, o en lugar de “perro en un campo”, “un golden retriever jugando en el campo en un día soleado”. ” Bueno, no estoy 100 por ciento seguro de que pueda acertar con la raza, pero entiendes la idea.

Los controles de Lupa y Rotor también se han reforzado, y grandes fragmentos de texto en Braille ahora se desplazarán automáticamente.

Los desarrolladores con problemas de visión estarán encantados de saber que Swift y Xcode han recibido muchas opciones nuevas de VoiceOver, así como también se asegurarán de que las tareas comunes como la finalización del código y la navegación sean accesibles.

Volver tappin ‘

El “toque posterior” es una característica nueva para los dispositivos Apple pero familiar para los usuarios de Android, que han visto cosas así en teléfonos Pixel y otros dispositivos. Permite a los usuarios tocar la parte posterior del teléfono dos o tres veces para activar un acceso directo, muy útil para invocar el lector de pantalla mientras su otra mano sostiene la correa del perro o una taza de té.

Como puede imaginar, la función es útil para casi cualquier persona, ya que puede personalizarla para realizar todo tipo de atajos o tareas. Desafortunadamente, la función se limita por ahora a los teléfonos con FaceID, lo que deja a los usuarios de iPhone 8 y SE, entre otros, en el frío. Es difícil imaginar que no haya un hardware secreto de detección de tomas involucrado; es casi seguro que utiliza acelerómetros que han estado en iPhones desde el principio.

Apple no es ajeno a retener ciertas características como rehén sin ningún motivo en particular, como las expansiones de notificaciones que no son posibles con un teléfono nuevo como el SE. Pero hacerlo con una función destinada a la accesibilidad es inusual. La compañía no descartó la posibilidad de que el toque de retroceso llegara a dispositivos con botones, pero tampoco se comprometió con la idea. Esperemos que esta útil característica esté más ampliamente disponible pronto, pero solo el tiempo lo dirá.


Source link