4 preguntas que debe hacerse al evaluar los prototipos de IA en busca de sesgo

4 preguntas que debe hacerse al evaluar los prototipos de IA en busca de sesgo

Verónica Torres Colaboradora

Verónica Torres es el asesor legal y de privacidad mundial para Jumiodonde brinda asesoría legal estratégica sobre procesos comerciales, aplicaciones y tecnologías para garantizar el cumplimiento de las leyes de privacidad.

Es cierto que ha habido avances en materia de protección de datos en los EE. UU. gracias a la aprobación de varias leyes, como la Ley de Privacidad del Consumidor de California (CCPA), y documentos no vinculantes, como el Plan para una declaración de derechos de la IA. Sin embargo, actualmente no existen regulaciones estándar que dicten cómo las empresas de tecnología deben mitigar el sesgo y la discriminación de la IA.

Como resultado, muchas empresas se están quedando atrás en la creación de herramientas éticas que priorizan la privacidad. Por poco 80% de los científicos de datos en los EE. UU. son hombres y el 66 % son blancos, lo que muestra una falta inherente de diversidad y representación demográfica en el desarrollo de herramientas de toma de decisiones automatizadas, lo que a menudo conduce a resultados de datos sesgados.

Se necesitan mejoras significativas en los procesos de revisión del diseño para garantizar que las empresas de tecnología tengan en cuenta a todas las personas al crear y modificar sus productos. De lo contrario, las organizaciones pueden correr el riesgo de perder clientes ante la competencia, empañar su reputación y correr el riesgo de demandas judiciales graves. Según IBM, alrededor del 85% de los profesionales de TI cree que los consumidores seleccionan empresas que son transparentes sobre cómo se crean, administran y utilizan sus algoritmos de IA. Podemos esperar que este número aumente a medida que más usuarios continúen oponiéndose a la tecnología dañina y sesgada.

Entonces, ¿qué deben tener en cuenta las empresas al analizar sus prototipos? Aquí hay cuatro preguntas que los equipos de desarrollo deben hacerse:

¿Hemos descartado todo tipo de sesgo en nuestro prototipo?

La tecnología tiene la capacidad de revolucionar la sociedad tal como la conocemos, pero finalmente fracasará si no beneficia a todos de la misma manera.

Para crear una tecnología eficaz y libre de sesgos, los equipos de IA deben desarrollar una lista de preguntas para hacer durante el proceso de revisión que pueda ayudarlos a identificar posibles problemas en sus modelos.

Hay muchas metodologías que los equipos de IA pueden usar para evaluar sus modelos, pero antes de hacerlo, es fundamental evaluar el objetivo final y si hay grupos que puedan verse afectados de manera desproporcionada por los resultados del uso de la IA.

Por ejemplo, los equipos de IA deben tener en cuenta que el uso de tecnologías de reconocimiento facial puede discriminar inadvertidamente a las personas de color, algo que ocurre con demasiada frecuencia en los algoritmos de IA. Investigación llevada a cabo por la Unión Estadounidense de Libertades Civiles en 2018 mostró que el reconocimiento facial de Amazon coincidió incorrectamente con 28 miembros del Congreso de EE. UU. con fotografías policiales. Un asombroso 40% de las coincidencias incorrectas fueron personas de color, a pesar de que solo representan el 20% del Congreso.

Al hacer preguntas desafiantes, los equipos de IA pueden encontrar nuevas formas de mejorar sus modelos y esforzarse por evitar que ocurran estos escenarios. Por ejemplo, un examen minucioso puede ayudarlos a determinar si necesitan ver más datos o si necesitarán a un tercero, como un experto en privacidad, para revisar su producto.

Trazar4AI es un gran recurso para aquellos que buscan comenzar.


Source link