Los artículos de investigación se publican con demasiada frecuencia para que cualquiera pueda leerlos todos. Eso es especialmente cierto en el campo del aprendizaje automático, que ahora afecta (y produce artículos en) prácticamente todas las industrias y empresas. Esta columna tiene como objetivo recopilar algunos de los descubrimientos y artículos recientes más interesantes, en particular, pero no limitados a, inteligencia artificial, y explicar por qué son importantes.
Esta semana tenemos una serie de entradas destinadas a identificar o confirmar sesgos o comportamientos de trampa en los sistemas de aprendizaje automático, o fallas en los datos que los respaldan. Pero primero un puramente proyecto visualmente atractivo de la Universidad de Washington que se presenta en la Conferencia sobre Visión por Computador y Reconocimiento de Patrones.
Entrenaron un sistema que reconoce y predice el flujo de agua, nubes, humo y otras características fluidas en las fotos, animándolas a partir de una sola imagen fija. El resultado es bastante bueno:
Créditos de imagen: Hołyński et al./CVPR
¿Por qué sin embargo? Bueno, por un lado, el futuro de la fotografía es el código, y cuanto mejor comprendan nuestras cámaras el mundo al que apuntan, mejor podrán acomodarlo o recrearlo. El flujo de un río falso no tiene una gran demanda, pero la predicción precisa del movimiento y el comportamiento de las características fotográficas comunes sí lo es.
Una pregunta importante a responder en la creación y aplicación de cualquier sistema de aprendizaje automático es si realmente está haciendo lo que usted desea. La historia de la “IA” está plagada de ejemplos de modelos que encontraron la manera de parecer que están realizando una tarea sin hacerlo realmente, algo así como un niño pateando todo debajo de la cama cuando se supone que deben limpiar su habitación.
Este es un problema grave en el campo de la medicina, donde un sistema que lo esté fingiendo podría tener consecuencias nefastas. Un estudio, también de UW, encuentra Los modelos propuestos en la literatura tienen una tendencia a hacer esto, en lo que los investigadores denominan “aprendizaje de atajos”. Estos atajos podrían ser simples, basando el riesgo de una radiografía en la demografía del paciente en lugar de los datos en la imagen, por ejemplo, o más únicos, como depender en gran medida de las condiciones en el hospital de donde provienen los datos, lo que hace imposible generalizar a otros.
El equipo descubrió que muchos modelos básicamente fallaban cuando se usaban en conjuntos de datos que diferían de los de entrenamiento. Esperan que los avances en la transparencia del aprendizaje automático (abrir la “caja negra”) faciliten saber cuándo estos sistemas están eludiendo las reglas.
Créditos de imagen: Siegfried Modola (se abre en una nueva ventana) / Imágenes falsas
Source link