Ícono del sitio La Neta Neta

La IA está luchando para adaptarse a 2020

La IA está luchando para adaptarse a 2020

Andrea Gagliano Colaborador

Más publicaciones de este colaborador AI está luchando para adaptarse a 2020

2020 ha hecho que todas las industrias vuelvan a imaginar cómo avanzar a la luz de COVID-19: movimientos de derechos civiles, un año electoral e innumerables otros grandes momentos de noticias. A nivel humano, hemos tenido que adaptarnos a una nueva forma de vida. Hemos comenzado a aceptar estos cambios y a descubrir cómo vivir nuestras vidas bajo estas nuevas reglas pandémicas. Mientras los humanos se acomodan, la IA lucha por mantenerse al día.

El problema con el entrenamiento de IA en 2020 es que, de repente, hemos cambiado nuestras normas sociales y culturales. Las verdades que les hemos enseñado a estos algoritmos a menudo ya no son realmente ciertas. Específicamente con la IA visual, le pedimos que interprete de inmediato la nueva forma en que vivimos con un contexto actualizado que aún no tiene.

Los algoritmos todavía se están ajustando a las nuevas colas visuales y tratando de comprender cómo identificarlas con precisión. A medida que la IA visual se pone al día, también necesitamos renovar la importancia de las actualizaciones de rutina en el proceso de capacitación de la IA para que se puedan corregir los conjuntos de datos de capacitación inexactos y los modelos de código abierto preexistentes.

Los modelos de visión por computadora tienen dificultades para etiquetar adecuadamente las representaciones de las nuevas escenas o situaciones en las que nos encontramos durante la era COVID-19. Las categorías han cambiado. Por ejemplo, digamos que hay una imagen de un padre trabajando en casa mientras su hijo juega. AI todavía lo clasifica como “ocio” o “relajación”. No es identificar esto como “trabajo” u “oficina”, a pesar de que trabajar con sus hijos a su lado es una realidad muy común para muchas familias durante este tiempo.

Créditos de imagen: Imágenes de Westend61/Getty

En un nivel más técnico, físicamente tenemos diferentes representaciones de píxeles de nuestro mundo. En Getty Images, hemos estado entrenando a la IA para que “vea”. Esto significa que los algoritmos pueden identificar imágenes y clasificarlas en función de la composición de píxeles de esa imagen y decidir qué incluye. Cambiar rápidamente la forma en que llevamos a cabo nuestra vida diaria significa que también estamos cambiando lo que implica una categoría o etiqueta (como “limpieza”).

Piénselo de esta manera: la limpieza ahora puede incluir limpiar superficies que ya parecen limpias visualmente. A los algoritmos se les ha enseñado previamente que para representar la limpieza, debe haber un desorden. Ahora, esto se ve muy diferente. Nuestros sistemas tienen que volver a entrenarse para dar cuenta de estos parámetros de categoría redefinidos.

Esto se relaciona en una escala más pequeña también. Alguien podría estar agarrando la perilla de una puerta con una toallita pequeña o limpiando el volante mientras está sentado en su automóvil. Lo que alguna vez fue un detalle trivial ahora tiene importancia a medida que las personas intentan mantenerse a salvo. Necesitamos captar estos pequeños matices para que se etiqueten adecuadamente. Luego, la IA puede comenzar a comprender nuestro mundo en 2020 y producir resultados precisos.

Créditos de imagen: Chee Gin Tan/imágenes falsas

Otro problema para la IA en este momento es que los algoritmos de aprendizaje automático todavía están tratando de comprender cómo identificar y categorizar rostros con máscaras. Las caras se detectan únicamente como la mitad superior de la cara, o como dos caras: una con la máscara y una segunda con solo los ojos. Esto crea inconsistencias e inhibe el uso preciso de los modelos de detección de rostros.

Un camino a seguir es volver a entrenar los algoritmos para que funcionen mejor cuando se les da únicamente la parte superior de la cara (por encima de la máscara). El problema de la máscara es similar a los desafíos clásicos de detección de rostros, como alguien que usa gafas de sol o detecta el rostro de alguien de perfil. Ahora las máscaras también son comunes.

Créditos de imagen: Rodger Shija/EyeEm/Getty Images

Lo que esto nos muestra es que los modelos de visión por computadora aún tienen un largo camino por recorrer antes de poder realmente “ver” en nuestro panorama social en constante evolución. La forma de contrarrestar esto es construir conjuntos de datos sólidos. Luego, podemos entrenar modelos de visión por computadora para tener en cuenta las innumerables formas diferentes en que se puede obstruir o cubrir una cara.

En este punto, estamos ampliando los parámetros de lo que el algoritmo ve como una cara, ya sea una persona que usa una máscara en una tienda de comestibles, una enfermera que usa una máscara como parte de su trabajo diario o una persona que cubre su rostro por razones religiosas.

A medida que creamos el contenido necesario para construir estos sólidos conjuntos de datos, debemos ser conscientes del sesgo no intencional potencialmente mayor. Si bien siempre existirá algún sesgo dentro de la IA, ahora vemos conjuntos de datos desequilibrados que representan nuestra nueva normalidad. Por ejemplo, estamos viendo más imágenes de personas blancas con máscaras que de otras etnias.

Esto puede ser el resultado de órdenes estrictas de quedarse en casa donde los fotógrafos tienen acceso limitado a comunidades distintas a la suya y no pueden diversificar sus sujetos. Puede deberse a la etnia de los fotógrafos que eligen fotografiar este tema. O, por el nivel de impacto que COVID-19 ha tenido en diferentes regiones. Independientemente de la razón, tener este desequilibrio hará que los algoritmos puedan detectar con mayor precisión a una persona blanca que usa una máscara que cualquier otra raza o etnia.

Los científicos de datos y aquellos que crean productos con modelos tienen una mayor responsabilidad de verificar la precisión de los modelos a la luz de los cambios en las normas sociales. Las comprobaciones y actualizaciones periódicas de los datos y modelos de entrenamiento son fundamentales para garantizar la calidad y la solidez de los modelos, ahora más que nunca. Si los resultados son inexactos, los científicos de datos pueden identificarlos rápidamente y corregir el rumbo.

También vale la pena mencionar que nuestra forma de vida actual está aquí para quedarse en el futuro previsible. Debido a esto, debemos ser cautelosos con los conjuntos de datos de código abierto que utilizamos con fines de capacitación. Los conjuntos de datos que se pueden modificar, deberían hacerlo. Los modelos de código abierto que no se pueden modificar deben tener un descargo de responsabilidad para que quede claro qué proyectos podrían verse afectados negativamente por los datos de capacitación obsoletos.

Identificar el nuevo contexto que le estamos pidiendo al sistema que comprenda es el primer paso para hacer avanzar la IA visual. Entonces necesitamos más contenido. Más representaciones del mundo que nos rodea y sus diversas perspectivas. A medida que acumulamos este nuevo contenido, haga un balance de los nuevos sesgos potenciales y las formas de volver a entrenar los conjuntos de datos de código abierto existentes. Todos tenemos que monitorear las inconsistencias e imprecisiones. La persistencia y la dedicación para volver a entrenar los modelos de visión por computadora es la forma en que llevaremos la IA al 2020.


Source link
Salir de la versión móvil