Las herramientas basadas en IA, como la visión por computadora y las interfaces de voz, tienen el potencial de cambiar la vida de las personas con discapacidades, pero la verdad es que esos modelos de IA generalmente se construyen con muy pocos datos provenientes de esas personas. Microsoft está trabajando con varios socios sin fines de lucro para ayudar a que estas herramientas reflejen las necesidades y realidades cotidianas de las personas que viven con condiciones como la ceguera y la movilidad limitada.
Considere, por ejemplo, un sistema de visión por computadora que reconoce objetos y puede describir lo que hay, por ejemplo, en una mesa. Lo más probable es que el algoritmo haya sido entrenado con datos recopilados por personas capaces, desde su punto de vista, probablemente de pie.
Una persona en silla de ruedas que quiera hacer lo mismo podría encontrar que el sistema no es tan efectivo desde ese ángulo más bajo. Del mismo modo, una persona ciega no sabrá mantener la cámara en la posición correcta durante el tiempo suficiente para que el algoritmo haga su trabajo, por lo que debe hacerlo por ensayo y error.
O considere un algoritmo de reconocimiento facial que debe indicar cuándo está prestando atención a la pantalla para una métrica u otra. ¿Cuál es la probabilidad de que entre las caras utilizadas para entrenar ese sistema, una cantidad significativa tenga cosas como un ventilador, un controlador de soplar y soplar o una correa para la cabeza que oculta parte de él? Estos “factores de confusión” pueden afectar significativamente la precisión si el sistema nunca ha visto nada parecido.
El software de reconocimiento facial que falla en las personas con piel oscura, o tiene menor precisión en las mujeres, es un ejemplo común de este tipo de “basura que entra, basura que sale”. Menos discutida pero no menos importante es la representación visual de las personas con discapacidad, o de su punto de vista.
Microsoft anunció hoy un puñado de esfuerzos codirigidos por organizaciones de defensa que esperan hacer algo sobre este “desierto de datos” que limita la inclusión de la IA.
La primera es una colaboración con Team Gleason, una organización formada para mejorar la concienciación sobre la enfermedad neuromotora degenerativa esclerosis lateral amiotrófica, o ELA (que lleva el nombre de la ex estrella de la NFL Steve Gleason, a quien se le diagnosticó la enfermedad hace algunos años).
Su preocupación es la anterior con respecto al reconocimiento facial. Las personas que viven con ELA tienen una gran variedad de síntomas y tecnologías de asistencia, y pueden interferir con algoritmos que nunca antes se habían visto. Eso se convierte en un problema si, por ejemplo, una empresa quisiera enviar un software de seguimiento de la mirada que se basara en el reconocimiento facial, como seguramente le gustaría hacer a Microsoft.
“La visión por computadora y el aprendizaje automático no representan los casos de uso y el aspecto de las personas con ELA y otras afecciones”, dijo Blair Casey del equipo Gleason. “La situación de cada uno es diferente y la forma en que usan la tecnología es diferente. Las personas encuentran las formas más creativas de ser eficientes y cómodas”.
Project Insight es el nombre de un nuevo esfuerzo conjunto con Microsoft que recopilará imágenes faciales de usuarios voluntarios con ALS mientras realizan sus actividades. Con el tiempo, esos datos faciales se integrarán con los servicios cognitivos existentes de Microsoft, pero también se liberarán libremente para que otros puedan mejorar sus propios algoritmos con ellos.
Su objetivo es tener un lanzamiento a fines de 2021. Si el marco de tiempo parece un poco largo, Mary Bellard de Microsoft, del esfuerzo de IA para Accesibilidad de la compañía, señaló que básicamente están comenzando desde cero y hacerlo bien es importante.
“La investigación conduce a conocimientos, los conocimientos conducen a modelos que los ingenieros incorporan a los productos. Pero tenemos que tener datos para que sean lo suficientemente precisos para estar en un producto en primer lugar”, dijo. “Los datos se compartirán; sin duda, no se trata de mejorar ningún producto, se trata de acelerar la investigación en torno a estas oportunidades complejas. Y ese es un trabajo que no queremos hacer solos”.
Otra oportunidad de mejora es obtener imágenes de usuarios que no usan una aplicación de la misma manera que la mayoría. Al igual que la persona con problemas de visión o en silla de ruedas mencionada anteriormente, hay una falta de datos desde su perspectiva. Hay dos esfuerzos que apuntan a abordar esto.
Créditos de imagen: ORBITA
Uno con la City University of London es la expansión y eventual lanzamiento público del proyecto Object Recognition for Blind Image Training, que está ensamblando un conjunto de datos cotidianos para identificar objetos cotidianos (una lata de refresco, un llavero) utilizando la cámara de un teléfono inteligente. Sin embargo, a diferencia de otros conjuntos de datos, este se obtendrá en su totalidad de usuarios ciegos, lo que significa que el algoritmo aprenderá desde el principio a trabajar con el tipo de datos que se proporcionarán más adelante de todos modos.
Créditos de imagen: microsoft
La otra es una expansión de VizWiz para abarcar mejor este tipo de datos. La herramienta es utilizada por personas que necesitan ayuda de inmediato para saber, por ejemplo, si una taza de yogur está caducada o si hay un automóvil en la entrada. Microsoft trabajó con la creadora de la aplicación, Danna Gurari, para mejorar la base de datos existente de la aplicación de decenas de miles de imágenes con preguntas y subtítulos asociados. También están trabajando para alertar a un usuario cuando su imagen es demasiado oscura o borrosa para analizarla o enviarla.
La inclusión es compleja porque se trata de personas y sistemas que, quizás sin siquiera darse cuenta, definen lo “normal” y luego no funcionan fuera de esas normas. Si la IA va a ser inclusiva, “normal” debe redefinirse y eso requerirá mucho trabajo duro. Hasta hace poco, la gente ni siquiera hablaba de ello. Pero eso está cambiando.
“Esto es algo que la comunidad de ALS quería hace años”, dijo Casey. “Esta es tecnología que existe, está guardada en un estante. Pongámoslo en uso. Cuando hablamos de eso, la gente hará más, y eso es algo que la comunidad necesita en su conjunto”.
Source link