A medida que las empresas confían cada vez más en los modelos de aprendizaje automático para administrar sus negocios, es imperativo incluir medidas contra el sesgo para garantizar que estos modelos no hagan suposiciones falsas o engañosas. Hoy en AWS re: Invent, AWS presentó Amazon SageMaker Clarify para ayudar a reducir el sesgo en los modelos de aprendizaje automático.
“Estamos lanzando Amazon SageMaker Clarify. Y lo que hace es que le permite conocer sus datos y modelos a lo largo de su ciclo de vida de aprendizaje automático ”, dijo a TechCrunch Bratin Saha, vicepresidente de Amazon y gerente general de aprendizaje automático.
Él dice que está diseñado para analizar los datos en busca de sesgos antes de comenzar la preparación de datos, por lo que puede encontrar este tipo de problemas incluso antes de comenzar a construir su modelo.
“Una vez que tengo mi conjunto de datos de entrenamiento, puedo [look at things like if I have] un número igual de varias clases, como si tengo el mismo número de hombres y mujeres o tengo el mismo número de otros tipos de clases, y tenemos un conjunto de varias métricas que puede usar para el análisis estadístico para obtener una visión real en un equilibrio más fácil del conjunto de datos ”, explicó Saha.
Después de crear su modelo, puede ejecutar SageMaker Clarify nuevamente para buscar factores similares que podrían haberse infiltrado en su modelo mientras lo construía. “Entonces, comienza haciendo un análisis de sesgo estadístico en sus datos y luego, después de la capacitación, puede volver a hacer análisis en el modelo”, dijo.
Existen múltiples tipos de sesgo que pueden ingresar a un modelo debido a los antecedentes de los científicos de datos que construyen el modelo, la naturaleza de los datos y cómo los científicos de datos interpretan esos datos a través del modelo que construyeron. Si bien esto puede ser problemático en general, también puede llevar a que los estereotipos raciales se extiendan a los algoritmos. Como ejemplo, sistemas de reconocimiento facial han demostrado ser bastante precisos para identificar rostros blancos, pero mucho menos cuando se trata de reconocer a personas de color.
Puede ser difícil identificar este tipo de sesgos con el software, ya que a menudo tiene que ver con la composición del equipo y otros factores fuera del alcance de una herramienta de análisis de software, pero Saha dice que están tratando de hacer que ese enfoque de software sea lo más completo posible.
“Si miras a SageMaker Clarify, te brinda análisis de sesgo de datos, te brinda análisis de sesgo de modelo, te brinda explicabilidad del modelo, te brinda explicabilidad por inferencia, te brinda una explicabilidad global”, dijo Saha.
Saha dice que Amazon es consciente del problema del sesgo y es por eso que creó esta herramienta para ayudar, pero reconoce que esta herramienta por sí sola no eliminará todos los problemas de sesgo que pueden surgir en los modelos de aprendizaje automático, y ofrecen otros formas de ayudar también.
“También estamos trabajando con nuestros clientes de varias formas. Así que tenemos documentación, mejores prácticas y les indicamos a nuestros clientes cómo ser capaces de diseñar sus sistemas y trabajar con el sistema para que obtengan los resultados deseados ”, dijo.
SageMaker Clarify está disponible a partir del día en varias regiones.
Source link