AWS anuncia SageMaker Clarify para ayudar a reducir el sesgo en los modelos de aprendizaje automático

AWS anuncia SageMaker Clarify para ayudar a reducir el sesgo en los modelos de aprendizaje automático

A medida que las empresas confían cada vez más en los modelos de aprendizaje automático para administrar sus negocios, es imperativo incluir medidas contra el sesgo para garantizar que estos modelos no hagan suposiciones falsas o engañosas. Hoy en AWS re: Invent, AWS presentó Amazon SageMaker Clarify para ayudar a reducir el sesgo en los modelos de aprendizaje automático.

“Estamos lanzando Amazon SageMaker Clarify. Y lo que hace es que le permite conocer sus datos y modelos a lo largo de su ciclo de vida de aprendizaje automático ”, dijo a TechCrunch Bratin Saha, vicepresidente de Amazon y gerente general de aprendizaje automático.

Él dice que está diseñado para analizar los datos en busca de sesgos antes de comenzar la preparación de datos, por lo que puede encontrar este tipo de problemas incluso antes de comenzar a construir su modelo.

“Una vez que tengo mi conjunto de datos de entrenamiento, puedo [look at things like if I have] un número igual de varias clases, como si tengo el mismo número de hombres y mujeres o tengo el mismo número de otros tipos de clases, y tenemos un conjunto de varias métricas que puede utilizar para el análisis estadístico para obtener una visión real en un equilibrio más fácil del conjunto de datos ”, explicó Saha.

Después de crear su modelo, puede ejecutar SageMaker Clarify nuevamente para buscar factores similares que podrían haberse introducido en su modelo a medida que lo construyó. “Entonces, comienza haciendo un análisis de sesgo estadístico en sus datos y luego, después del entrenamiento, puede volver a hacer análisis en el modelo”, dijo.

Hay varios tipos de sesgo que pueden ingresar a un modelo debido a los antecedentes de los científicos de datos que construyen el modelo, la naturaleza de los datos y cómo los científicos de datos interpretan esos datos a través del modelo que construyeron. Si bien esto puede ser problemático en general, también puede llevar a que los estereotipos raciales se extiendan a los algoritmos. Por ejemplo, los sistemas de reconocimiento facial han demostrado ser bastante precisos para identificar caras blancas, pero mucho menos cuando se trata de reconocer a personas de color.

Puede ser difícil identificar este tipo de sesgos con el software, ya que a menudo tiene que ver con la composición del equipo y otros factores fuera del alcance de una herramienta de análisis de software, pero Saha dice que están tratando de hacer que ese enfoque de software sea lo más completo posible.

“Si miras a SageMaker Clarify, te brinda análisis de sesgo de datos, te brinda análisis de sesgo de modelo, te brinda explicabilidad del modelo, te brinda explicabilidad por inferencia, te brinda una explicabilidad global”, dijo Saha.

Saha dice que Amazon es consciente del problema del sesgo y por eso creó esta herramienta para ayudar, pero reconoce que esta herramienta por sí sola no eliminará todos los problemas de sesgo que pueden surgir en los modelos de aprendizaje automático, y ofrecen otros formas de ayudar también.

“También estamos trabajando con nuestros clientes de diversas formas. Así que tenemos documentación, mejores prácticas, y les indicamos a nuestros clientes cómo ser capaces de diseñar sus sistemas y trabajar con el sistema para que obtengan los resultados deseados ”, dijo.

SageMaker Clarify está disponible a partir del día en varias regiones.


Source link