La IA sesgada perpetúa la injusticia racial

La IA sesgada perpetúa la injusticia racial

Miriam Vogel es la presidenta y directora general de EqualAIuna organización sin fines de lucro enfocada en reducir el sesgo inconsciente en la inteligencia artificial.

Más publicaciones de este colaborador Para garantizar la inclusión, la administración de Biden debe duplicar las iniciativas de desarrollo de IA

El asesinato de George Floyd fue impactante, pero sabemos que su muerte no fue única. Se han robado demasiadas vidas negras de sus familias y comunidades como resultado del racismo histórico. Hay numerosos y profundos hilos entretejidos en la injusticia racial que azota a nuestro país que han llegado a un punto crítico tras los recientes asesinatos de George Floyd, Ahmaud Arbery y Breonna Taylor.

Tan importante como el proceso en curso para admitir y comprender el origen de la discriminación racial será nuestra determinación colectiva de forjar un camino a seguir más equitativo e inclusivo. A medida que nos comprometemos a abordar esta realidad intolerable e insostenible, nuestras discusiones deben incluir el papel de la inteligencia artificial (IA). Si bien el racismo ha impregnado nuestra historia, la IA ahora desempeña un papel en la creación, exacerbación y ocultación de estas disparidades detrás de la fachada de una máquina científica aparentemente neutral. En realidad, la IA es un espejo que refleja y magnifica los prejuicios de nuestra sociedad.

Tuve el privilegio de trabajar con la Fiscal General Adjunta Sally Yates para presentar capacitación sobre prejuicios implícitos a las fuerzas del orden público federales en el Departamento de Justicia, lo que me pareció tan educativo para quienes trabajaban en el plan de estudios como para quienes participaban. El sesgo implícito es un hecho de la humanidad que facilita (p. ej., saber que es seguro cruzar la calle) e impide (p. ej., impresiones iniciales falsas basadas en la raza o el género) nuestras actividades. Este fenómeno ahora se está desarrollando a escala con la IA.

como tenemos aprendió, las actividades de aplicación de la ley, como la vigilancia predictiva, se han dirigido con demasiada frecuencia a las comunidades de color, lo que ha resultado en un número desproporcionado de arrestos de personas de color. Luego, estos arrestos se registran en el sistema y se convierten en puntos de datos, que se agregan en conjuntos de datos más grandes y, en los últimos años, se han utilizado para crear sistemas de IA. Este proceso crea un ciclo de retroalimentación donde los algoritmos policiales predictivos llevan a las fuerzas del orden público a patrullar y, por lo tanto, observan el crimen solo en los vecindarios que patrullan, lo que influye en los datos y, por lo tanto, en las recomendaciones futuras. Del mismo modo, los arrestos realizados durante las protestas actuales generarán puntos de datos en conjuntos de datos futuros que se utilizarán para construir sistemas de IA.

Este ciclo de retroalimentación de sesgo dentro de AI se desarrolla en todo el sistema de justicia penal y en nuestra sociedad en general, como determinar cuánto tiempo sentenciar a un acusado, si aprobar una solicitud de préstamo hipotecario o programar una entrevista con un candidato a un puesto de trabajo. En resumen, muchos programas de IA se basan en y propagan el sesgo en las decisiones que determinarán la seguridad financiera y las oportunidades de un individuo y su familia, o la falta de ellas, a menudo sin que el usuario sepa su papel en la perpetuación del sesgo.

Este ciclo peligroso e injusto no creó todas las disparidades raciales bajo protesta, pero las reforzó y normalizó bajo la protección de una caja negra.

Todo esto está sucediendo en el contexto de una pandemia histórica, que está afectando desproporcionadamente a las personas de color. Las comunidades de color no solo han sido las más en riesgo de contraer COVID-19, es más probable que perder empleos y seguridad económica en un momento en que Tasas de desempleo se han disparado. La IA sesgada está agravando aún más la discriminación en este ámbito también.

Este problema tiene solución: diversidad de ideas y experiencia en la creación de IA. Sin embargo, a pesar de años de promesas de aumentar la diversidad, particularmente en género y raza, por parte de aquellos en tecnología que parecen capaces de remediar otros problemas insolubles (desde poner computadoras en nuestros bolsillos y conectarnos con máquinas fuera de la tierra hasta dirigir nuestros movimientos a través de GPS) — informes publicados recientemente show que en Google y microsoftla proporción de empleados técnicos negros o latinos aumentó menos de un punto porcentual desde 2014. La proporción de trabajadores técnicos negros en Manzana no ha cambiado del 6%, que al menos se informa, a diferencia del Amazonas, que no informa la demografía de la fuerza laboral tecnológica.

Mientras tanto, la ética debe ser parte de la educación y el empleo relacionados con las ciencias de la computación en el espacio tecnológico. Los equipos de IA deben recibir capacitación sobre las leyes contra la discriminación y el sesgo implícito, enfatizando los impactos negativos en las clases protegidas y los impactos humanos reales de hacer esto mal. Las empresas deben mejorar en la incorporación de diversas perspectivas en la creación de su IA, y necesitan que el gobierno sea un socio, estableciendo expectativas claras y barandillas.

Ha habido proyectos de ley para garantizar la supervisión y la rendición de cuentas para datos sesgados y la La FTC emitió recientemente una guía reflexiva responsabilizar a las empresas de comprender los datos subyacentes a la IA, así como sus implicaciones, y proporcionar a los consumidores resultados transparentes y explicables. Y a la luz del papel crucial que está desempeñando el apoyo federal y nuestro uso acelerado de la IA, una de las soluciones más importantes es exigir aseguramiento del cumplimiento legal de las leyes existentes de los destinatarios de fondos de ayuda federal que emplean tecnologías de IA para usos críticos. tal esfuerzo fue iniciado recientemente por varios miembros del Congreso para salvaguardar a las personas y clases protegidas, y debe promulgarse.

Todos debemos hacer nuestra parte para poner fin a los ciclos de prejuicios y discriminación. Se lo debemos a aquellos cuyas vidas han sido arrebatadas o alteradas debido al racismo mirar dentro de nosotros mismos, nuestras comunidades y nuestras organizaciones para asegurar el cambio. A medida que dependemos cada vez más de la IA, debemos estar atentos para garantizar que estos programas ayuden a resolver los problemas de injusticia racial, en lugar de perpetuarlos y magnificarlos.


Source link