En su conferencia de desarrolladores Build, Microsoft puso hoy un fuerte énfasis en el aprendizaje automático. Pero además de muchas herramientas y funciones nuevas, la empresa también destacó su trabajo en la creación de sistemas de IA más responsables y justos, tanto en la nube de Azure como en los kits de herramientas de código abierto de Microsoft.
Estos incluyen nuevas herramientas para la privacidad diferencial y un sistema para garantizar que los modelos funcionen bien en diferentes grupos de personas, así como nuevas herramientas que permiten a las empresas hacer el mejor uso de sus datos sin dejar de cumplir con los estrictos requisitos normativos.
A medida que los desarrolladores tienen cada vez más la tarea de aprender a construir modelos de IA, regularmente deben preguntarse si los sistemas son “fáciles de explicar” y si “cumplen con las normas de privacidad y no discriminación”, señala Microsoft en el anuncio de hoy. Pero para hacer eso, necesitan herramientas que les ayuden a interpretar mejor los resultados de sus modelos. uno de esos es interpretMLque Microsoft lanzó hace un tiempo, pero también el Kit de herramientas FairLearnque se puede usar para evaluar la imparcialidad de los modelos ML, y que actualmente está disponible como una herramienta de código abierto y que se integrará en Azure Machine Learning el próximo mes.
En cuanto a la privacidad diferencial, que permite obtener información de los datos privados sin dejar de proteger la información privada, Microsoft anunció hoy WhiteNoise, un nuevo conjunto de herramientas de código abierto que está disponible tanto en GitHub como a través de Azure Machine Learning. WhiteNoise es el resultado de una asociación entre Microsoft y el Instituto de Ciencias Sociales Cuantitativas de Harvard.
Source link