manzana es conocido por las interfaces de usuario fluidas e intuitivas, pero nada de eso importa si no puede hacer clic, tocar o arrastrar porque no tiene un dedo para hacerlo. Para los usuarios con discapacidades, la compañía está duplicando la accesibilidad basada en voz con la nueva y poderosa función de control de voz en dispositivos Mac y iOS (y iPadOS).
Muchos dispositivos ya son compatibles con dictados, y por supuesto, los teléfonos y las computadoras de Apple han usado comandos de voz durante años (recuerdo haber hablado con mi Quadra). Pero este es un gran paso adelante que hace que los controles de voz sean casi universales, y todo funciona sin conexión.
La idea básica de Voice Control es que el usuario tiene comandos de configuración y comandos específicos del contexto. Los comandos de configuración son cosas como "Abrir Garaje Banda" o "Menú Archivo" o "Tocar enviar". Y, por supuesto, algo de inteligencia se ha asegurado de que realmente esté diciendo el comando y no lo esté escribiendo, como en la última oración.
Pero eso no funciona cuando tienes una interfaz que aparece con muchos botones, campos y etiquetas diferentes. E incluso si todos los botones o elementos del menú puedan llamarse por su nombre, puede ser difícil o llevar mucho tiempo hablar todo en voz alta.
Para solucionar esto, Apple simplemente adjunta un número a cada elemento de la IU en el primer plano, que un usuario puede mostrar diciendo "mostrar números". Luego, puede simplemente decir el número o modificarlo con otro comando, como "toque 22". vea un flujo de trabajo básico a continuación, aunque, por supuesto, sin las señales de audio pierde un poco:
Recuerde que estos números pueden ser referenciados más fácilmente por alguien con poca o ninguna habilidad vocal, y de hecho podrían seleccionarse utilizando una entrada más simple como un dial o un tubo de soplado. El seguimiento de la mirada es bueno, pero tiene sus limitaciones, y esta es una buena alternativa.
Para algo como mapas, donde puede hacer clic en cualquier lugar, hay un sistema de cuadrícula para seleccionar dónde hacer zoom o hacer clic. Al igual que Blade Runner! Otros gestos como el desplazamiento y el arrastre también son compatibles.
El dictado ha existido por un tiempo, pero también se ha mejorado. Puede seleccionar y reemplazar frases completas, como "Reemplazar 'estar de vuelta' con 'en mi camino'". Los que usan la herramienta a menudo notarán y apreciarán otras pequeñas mejoras.
Todo el procesamiento de voz se realiza fuera de línea, lo que lo hace rápido y robusto para problemas de señal o uso en países extranjeros donde los datos pueden ser difíciles de obtener. Y la inteligencia incorporada en Siri le permite reconocer nombres y palabras específicas del contexto que pueden no formar parte del vocabulario básico. Un dictado mejorado significa que seleccionar emoji y agregar elementos del diccionario es muy fácil.
En este momento, Voice Control es compatible con todas las aplicaciones nativas, y las aplicaciones de terceros que utilizan la API de accesibilidad de Apple deberían poder aprovecharlo fácilmente. E incluso si no lo hacen específicamente, los números y las cuadrículas deberían funcionar bien, ya que todo lo que el sistema operativo necesita saber son las ubicaciones de los elementos de la interfaz de usuario. Estas mejoras deberían aparecer en las opciones de accesibilidad tan pronto como el dispositivo se actualice a iOS 13 o Catalina.
Source link