Los investigadores de IA condenan el software predictivo de delitos, citando prejuicios raciales y métodos defectuosos

Los investigadores de IA condenan el software predictivo de delitos, citando prejuicios raciales y métodos defectuosos

Un colectivo de más de 2000 investigadores, académicos y expertos en inteligencia artificial se pronuncia en contra de una investigación que se publicará próximamente y que afirma utilizar redes neuronales para “predecir la criminalidad”. En el momento de escribir este artículo, más de 50 empleados que trabajan en IA en empresas como Facebook, Google y Microsoft se habían registrado en un carta abierta oponiéndose a la investigación e implorando a su editor que reconsidere.

La controvertida investigación se destacará en una próxima serie de libros de Springer, el editor de Nature. Sus autores hacen la afirmación alarmante de que su software de reconocimiento facial automatizado puede predecir si una persona se convertirá en un delincuente, citando la utilidad de dicho trabajo en las aplicaciones policiales para la vigilancia predictiva.

“Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y las aplicaciones militares que se vean menos afectadas por los sesgos implícitos y las respuestas emocionales”, dijo Nathaniel JS Ashby, profesor y coautor de la Universidad de Harrisburg. .

Él otros autores de la investigación incluyen al profesor asistente de la Universidad de Harrisburg Roozbeh Sadeghian y Jonathan W. Korn, Ph.D. estudiante destacado como veterano de la policía de Nueva York en un comunicado de prensa. Korn elogió el software capaz de anticipar la criminalidad como “una ventaja significativa para las agencias de aplicación de la ley”.

En la carta abierta que se opone a la publicación de la investigación, los expertos en inteligencia artificial expresaron “graves preocupaciones” sobre el estudio e instaron al comité de revisión de Springer a retirar su oferta. La carta también pedía a otros editores que se negaran a publicar investigaciones futuras similares, citando una letanía de razones por las que tanto la tecnología de reconocimiento facial como la de predicción de delitos deben abordarse con extrema precaución y no aprovecharse contra comunidades que ya son vulnerables.

A los opositores de la publicación no solo les preocupa que los investigadores hayan abierto una lata de gusanos ética, sino que también ponen en duda la investigación en sí misma, criticando “premisas científicas, investigaciones y métodos poco sólidos, que numerosos estudios que abarcan nuestras respectivas disciplinas han desacreditado a lo largo de los años”. años.”

Actualizar: Felicitas Behrendt, gerente de comunicaciones de Springer Nature, se comunicó con TechCrunch y proporcionó la siguiente declaración:

“Reconocemos la preocupación con respecto a este documento y nos gustaría aclarar que en ningún momento fue aceptado para su publicación. Se envió a una próxima conferencia para la cual Springer publicará las actas de la serie de libros Transactions on Computational Science and Computational Intelligence y pasó por un minucioso proceso de revisión por pares. La decisión del editor de la serie de rechazar el artículo final se tomó el martes 16 de junio y se comunicó oficialmente a los autores el lunes 22 de junio. Los detalles del proceso de revisión y las conclusiones extraídas permanecen confidenciales entre el editor, los revisores y los autores”.

Los algoritmos de reconocimiento facial tienen largo estado criticado por el bajo rendimiento en la identificación de rostros no blancos, entre muchas otras preocupaciones científicas y éticas que se plantean con frecuencia sobre este tipo de software. Dado que la investigación en cuestión desarrolló un software de reconocimiento facial que se puede aplicar con fines policiales predictivos, lo que está en juego en la tecnología no podría ser mayor.

“Los programas de aprendizaje automático no son neutrales; las agendas de investigación y los conjuntos de datos con los que trabajan a menudo heredan creencias culturales dominantes sobre el mundo”, los autores de la carta. advertir.

“La aceptación acrítica de los supuestos predeterminados conduce inevitablemente a un diseño discriminatorio en los sistemas algorítmicos, que reproduce ideas que normalizan las jerarquías sociales y legitiman la violencia contra los grupos marginados”.


Source link