Apple presentó una vista previa de un conjunto de nuevas funciones hoy para mejorar la accesibilidad cognitiva, visual y del habla. Está previsto que estas herramientas lleguen al iPhone, iPad y Mac a finales de este año. Como líder establecido en la accesibilidad de la tecnología convencional, Apple enfatiza que estas herramientas se construyen con los comentarios de las comunidades discapacitadas.
Acceso asistido, que llegará pronto a iOS y iPadOS, está diseñado para personas con discapacidades cognitivas. Assistive Access agiliza la interfaz del iPhone y el iPad, centrándose específicamente en facilitar hablar con los seres queridos, compartir fotos y escuchar música. Las aplicaciones Phone y FaceTime se fusionan en una sola, por ejemplo.
El diseño también se hace más digerible al incorporar íconos grandes, mayor contraste y etiquetas de texto más claras para que la pantalla sea más simple. Sin embargo, el usuario puede personalizar estas características visuales a su gusto, y esas preferencias se transmiten a cualquier aplicación que sea compatible con Acceso asistido.
Como parte de la herramienta Lupa existente, los usuarios ciegos y con baja visión ya pueden usar su teléfono para ubicar puertas, personas o letreros cercanos. Ahora Apple presenta una función llamada Point and Speak, que utiliza la cámara del dispositivo y el escáner LiDAR para ayudar a las personas con discapacidades visuales a interactuar con objetos físicos que tienen varias etiquetas de texto.
Créditos de imagen: Manzana
Por lo tanto, si un usuario con baja visión quisiera calentar comida en el microondas, podría usar Point and Speak para distinguir la diferencia entre los botones de “palomitas de maíz”, “pizza” y “nivel de potencia”: cuando el dispositivo identifica este texto, lo lee en voz alta. Point and Speak estará disponible en inglés, francés, italiano, alemán, español, portugués, chino, cantonés, coreano, japonés y ucraniano.
Una característica particularmente interesante del grupo es Personal Voice, que crea una voz automatizada que suena como usted, en lugar de Siri. La herramienta está diseñada para personas que pueden estar en riesgo de perder su capacidad de hablar por condiciones como ALS. Para generar una Voz personal, el usuario tiene que dedicar unos quince minutos a leer con claridad mensajes de texto elegidos al azar en su micrófono. Luego, mediante el aprendizaje automático, el audio se procesa localmente en su iPhone, iPad o Mac para crear su voz personal. Suena similar a lo que Acapela ha estado haciendo con su servicio “mi propia voz”, que funciona con otros dispositivos de asistencia.
Es fácil ver cómo un repositorio de modelos de texto a voz únicos y altamente capacitados podría ser peligroso en las manos equivocadas. Pero según Apple, estos datos de voz personalizados nunca se comparten con nadie, ni siquiera con la propia Apple. De hecho, Apple dice que ni siquiera conecta su voz personal con su ID de Apple, ya que algunos hogares pueden compartir un inicio de sesión. En cambio, los usuarios deben optar si quieren que una Voz personal que crean en su Mac sea accesible en su iPhone, o viceversa.
En el lanzamiento, Personal Voice solo estará disponible para hablantes de inglés y solo se puede crear en dispositivos con Apple Silicon.
Ya sea que esté hablando como Siri o como su gemelo de voz AI, Apple está facilitando la comunicación de las personas no verbales. Live Speech, disponible en todos los dispositivos Apple, permite a las personas escribir lo que quieren decir para que se pueda decir en voz alta. La herramienta está disponible en la pantalla de bloqueo, pero también se puede usar en otras aplicaciones, como FaceTime. Además, si los usuarios necesitan repetir las mismas frases con frecuencia, como un pedido de café normal, por ejemplo, pueden almacenar frases preestablecidas en Live Speech.
Las herramientas existentes de voz a texto de Apple también se están actualizando. Ahora, Voice Control incorporará la edición de texto fonético, lo que facilita que las personas que escriben con su voz corrijan errores rápidamente. Entonces, si ve que su computadora transcribe “excelente”, pero quiso decir “gris”, será más fácil hacer esa corrección. Esta función, Sugerencias fonéticas, estará disponible en inglés, español, francés y alemán por ahora.
Créditos de imagen: Manzana
Se espera que estas funciones de accesibilidad se implementen en varios productos de Apple este año. En cuanto a sus ofertas existentes, Apple expandirá el acceso a SignTime a Alemania, Italia, España y Corea del Sur el jueves. Hora de la señal ofrece a los usuarios intérpretes de lenguaje de señas a pedido para los clientes de Apple Store y Apple Support.
Source link