El Parlamento Europeo pide la prohibición del uso policial de la inteligencia artificial


El uso policial de herramientas apoyadas en la inteligencia artificial (IA), especialmente el reconocimiento facial o los algoritmos predictivos, puede generar grandes desigualdades entre los ciudadanos. Hay que ser especialmente vigilantes con estas tecnologías, que deberán estar sujetas a estrictas regulaciones y en última instancia siempre deberán tener supervisión humana. Así se establece en una resolución aprobada ayer por el Parlamento Europeo, que pide también la “prohibición permanente del reconocimiento automático de individuos en espacios públicos”, dejando claro que los ciudadanos solo deberían ser vigilados cuando sean sospechosos de haber cometido un crimen.

La Eurocámara solicita, asimismo, que no se puedan usar bases de datos privadas de reconocimiento facial, y cita como ejemplo la de Clearview AI, una empresa estadounidense que ha analizado 10.000 millones de fotos para poder identificar a quienes salen en ellas. También pide transparencia en el desarrollo de cualquier algoritmo que pueda suponer una intromisión en la privacidad de los ciudadanos y que precisamente por eso se opte preferiblemente por el código abierto.

La resolución, aprobada con 377 votos a favor, 248 en contra y 62 abstenciones, no es vinculante, pero sienta un precedente importante de cara la EU Artificial Intelligence Act, la normativa europea sobre inteligencia artificial que se está cocinando ahora mismo en Bruselas y que establecerá los usos permitidos de la IA con un enfoque centrado en los riesgos. “Nos oponemos claramente a las herramientas predictivas de la policía basadas en el uso de IA, así como en cualquier procesamiento de datos biométricos que redunde en una vigilancia masiva. Esta es una tremenda victoria para todos los ciudadanos europeos”, dijo el eurodiputado búlgaro Petar Vitanov tras la votación.

El borrador de reglamento europeo de la IA, presentado en primavera, ya identificaba el reconocimiento facial y el uso de datos biométricos como tecnologías especialmente peligrosas. La resolución de la Eurocámara aporta más argumentos todavía para que esas tecnologías sean sometidas a una regulación especialmente estricta.

“Hemos trabajado durante meses con varios eurodiputados para que el Parlamento Europeo tomase una decisión en este sentido”, sostiene Ella Jakubowska, coordinadora del programa de biometría facial de EDRI, una ONG basada en Bruselas que trabaja por la defensa de los derechos humanos en la era digital.

Los eurodiputados subrayan en la resolución los problemas que implican los sesgos algorítmicos. Así, advierten de que los sistemas de identificación basados en IA identifican erróneamente a los grupos étnicos minoritarios, a las personas LGBTI, a los mayores y a las mujeres en mayor proporción que al resto. Eso es “especialmente preocupante” cuando ha de aplicarse la ley o en el control de fronteras, uno de los lugares donde más se usan estas tecnologías.

Tecnologías controvertidas

Aplicado durante años en labores policiales en países como Estados Unidos, el reconocimiento facial está siendo fuertemente cuestionado en los últimos tiempos. Varias ciudades han prohibido o congelado su uso y grandes empresas como Amazon, IBM o Microsoft suspendieron la venta de este tipo de sistemas a la policía a raíz de las protestas por la muerte de George Floyd, asfixiado por un agente en Minneapolis el 25 de mayo de 2020. El movimiento Black Lives Matters ha marcado un punto de inflexión en el cuestionamiento de esta tecnología, que suele equivocarse en contra de la población negra.

En la Cámara de Representantes hay registrada una iniciativa para regular estos sistemas a nivel federal, si bien hasta el momento no se ha traducido en nada concreto. La batalla legal iniciada en Detroit por Robert Williams, el primer caso conocido de detención irregular en el país por el uso defectuoso de un algoritmo de reconocimiento facial, podría desembocar en su prohibición por la vía judicial.

Los algoritmos de predicción policial, por su parte, están muy implantados en Estados Unidos y China. En Europa están también presentes en países como Reino Unido, Alemania o Suiza. Su objetivo es determinar los puntos calientes del crimen a través del análisis automatizado de datos para desplegar a las patrullas policiales de forma más eficiente.

Estas herramientas tampoco escapan a la controversia. Uno de los efectos perversos de estos sistemas, ampliamente demostrado por la literatura científica, es que tienden a sobrecriminalizar los barrios menos pudientes, lo que en el caso de EE UU se suele traducir en zonas de población mayoritariamente negra o latina: como los algoritmos se alimentar de datos sobre arrestos, normalmente reclaman más vigilancia en las zonas donde se producen esas acciones, lo que a su vez provoca más detenciones aún. Los intentos de corregir este sesgo no han dado a día de hoy resultados satisfactorios.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Inicia sesión para seguir leyendo

Sólo con tener una cuenta ya puedes leer este artículo, es gratis

Gracias por leer EL PAÍS




Source link