La startup de ciberseguridad CyCognito recauda $ 18 millones en fondos de la Serie A

El tribunal encuentra alguna falla en el uso de la tecnología de reconocimiento facial por parte de la policía del Reino Unido

Activistas de derechos civiles en el Reino Unido han ganado un desafío legal contra el uso de la tecnología de reconocimiento facial por parte de la Policía de Gales del Sur (SWP). La victoria en apelación está siendo aclamada como una “primera victoria mundial” en la lucha contra el uso de una “herramienta de vigilancia opresiva”, como grupo de derechos humanos Libertad lo pone

Sin embargo, la fuerza policial no tiene la intención de apelar el fallo y ha dicho que sigue comprometida con el uso “cuidadoso” de la tecnología.

La historia de fondo aquí es que SWP ha estado probando la tecnología de reconocimiento facial automatizado (AFR) desde 2017, implementando un sistema conocido como AFR Locate en alrededor de 50 ocasiones entre mayo de 2017 y abril de 2019 en una variedad de eventos públicos en Gales.

La fuerza ha utilizado la tecnología junto con listas de vigilancia de entre 400 y 800 personas, que incluían personas buscadas por órdenes judiciales; personas que habían escapado de la custodia; personas sospechosas de haber cometido delitos; personas que puedan necesitar protección; personas vulnerables; personas de posible interés para fines de inteligencia; y personas cuya presencia en un evento en particular causa especial preocupación, por un resumen de prensa emitido por la corte de apelaciones.

Un defensor de las libertades civiles con sede en Cardiff, llamado Edward Bridges, con el apoyo de Liberty, planteó un desafío al uso de AFR por parte del SWP. Bridges estuvo cerca de dos despliegues de AFR Locate, primero el 21 de diciembre de 2017 en el centro de la ciudad de Cardiff y nuevamente el 27 de marzo de 2018 en la Exhibición de Adquisiciones, Investigación, Tecnología y Exportabilidad de Defensa que tuvo lugar en la ciudad, y mientras estaba no incluido en una lista de vigilancia de la fuerza, afirma que dada su proximidad a las cámaras, el sistema grabó su imagen, incluso si se eliminó casi inmediatamente después.

Las implicaciones para los derechos humanos del procesamiento sin orden judicial de datos personales confidenciales por parte de la policía es el tema central del caso. El problema de los riesgos de sesgo que pueden derivarse de la automatización de las decisiones de identidad es otra consideración clave.

Bridges inicialmente presentó una demanda de revisión judicial sobre la base de que AFR no era compatible con el derecho al respeto de la vida privada en virtud del artículo 8 del Convenio Europeo de Derechos Humanos, la legislación de protección de datos y el Deber de Igualdad del Sector Público (“PSED”) bajo la sección 149 de la Ley de Igualdad de 2010.

El tribunal de división desestimó su apelación por todos los motivos el pasado mes de septiembre. Luego apeló por cinco motivos, y ha tenido éxito en tres en el tribunal de apelación unánime de hoy. decisión.

El tribunal dictaminó que el marco legal y las políticas utilizadas por SWP no brindaban una guía clara sobre dónde se podía usar AFR Locate y quién podía incluirse en una lista de vigilancia; descubrió que se otorgaba una discreción demasiado amplia a los agentes de policía para cumplir con el estándar requerido por el Artículo 8(2) del Convenio Europeo de Derechos Humanos. (Entonces, el fallo aumenta la presión sobre el gobierno para que defina un código para el uso policial de la tecnología de reconocimiento facial).

También descubrió que se llevó a cabo una evaluación de impacto de protección de datos inadecuada, dado que SWP había escrito el documento sobre la base de que no infringía el artículo 8, lo que significa que la fuerza no había cumplido con la Ley de Protección de Datos de 2018 del Reino Unido.

El tribunal también consideró que la fuerza estaba equivocada al sostener que había cumplido con la PSED, porque no había tomado medidas razonables para investigar si el software AFR Locate contenía prejuicios por motivos raciales o sexuales. (Aunque el tribunal señaló que no había pruebas claras de que la herramienta estuviera tan sesgada).

Estoy increíblemente complacido con el juicio de hoy sobre el caso que presenté con @libertyhq contra el uso de la tecnología de reconocimiento facial automático por parte de la Policía de Gales del Sur. El Tribunal de Apelación estuvo de acuerdo en que esta tecnología amenaza nuestros derechos. https://t.co/2kZiz7lJpv [1/5]

– Ed Puentes (@DrEdBridges) 11 de agosto de 2020

Desde que Bridges presentó el desafío, la policía Met de Londres siguió adelante y activó el uso operativo de la tecnología de reconocimiento facial, activando el interruptor a principios de este año. Aunque en su caso una empresa privada (NEC) está operando el sistema.

En el momento del anuncio del Met, Libertad calificó la medida de “peligrosa, opresiva y completamente injustificada”. En un comunicado de prensa de hoy, sugiere que el despliegue de Met puede ser ilegal por razones similares a las del uso de la tecnología por parte del SWP, citando una revisión que llevó a cabo la fuerza. Los defensores de las libertades civiles, los especialistas en ética de la IA y los expertos en privacidad han acusado al Met de ignorar los hallazgos de un informe independiente que concluyó que no había considerado los impactos en los derechos humanos.

Al comentar sobre el fallo del tribunal de apelaciones de hoy en un comunicado, la abogada de Liberty, Megan Goulding, dijo: “Este fallo es una gran victoria en la lucha contra el reconocimiento facial discriminatorio y opresivo. La Corte ha acordado que esta herramienta de vigilancia distópica viola nuestros derechos y amenaza nuestras libertades. El reconocimiento facial discrimina a las personas de color, y es absolutamente correcto que el Tribunal dictamine que la Policía de Gales del Sur no cumplió con su deber de investigar y evitar la discriminación.

“Es hora de que el Gobierno reconozca los graves peligros de esta tecnología intrusiva. El reconocimiento facial es una amenaza para nuestra libertad, debe prohibirse”.

En otra declaración de apoyo, Bridges agregó: “Estoy encantado de que la Corte haya acordado que el reconocimiento facial claramente amenaza nuestros derechos. Esta tecnología es una herramienta de vigilancia masiva intrusiva y discriminatoria. Durante tres años, la policía de Gales del Sur lo ha estado utilizando contra cientos de miles de nosotros, sin nuestro consentimiento y, a menudo, sin nuestro conocimiento. Todos deberíamos poder usar nuestros espacios públicos sin estar sujetos a una vigilancia opresiva”.

Sin embargo, es importante tener en cuenta que no ganó su apelación por todos los motivos.

En particular, el tribunal sostuvo que el tribunal anterior había realizado correctamente un ejercicio de ponderación para determinar si el uso de AFR por parte de la policía era una interferencia proporcionada con el derecho de los derechos humanos, cuando consideró “los beneficios reales y anticipados” de AFR Locate frente al impacto de la Despliegue de AFR en puentes, y decidió que los beneficios eran potencialmente grandes, mientras que el impacto individual era menor, por lo que sostuvo que el uso de AFR era proporcionado según el Artículo 8(2).

Por lo tanto, el tribunal del Reino Unido no parece haber cerrado por completo la puerta al uso policial de la tecnología de reconocimiento facial.

De hecho, se señala que los impactos en los derechos individuales pueden equilibrarse con un beneficio potencial de “bien mayor”, por lo que el fallo parece más bien definir cómo se puede usar legalmente una tecnología tan intrusiva. (Y es notable que SWP haya dicho que está “completamente comprometido” con el “desarrollo e implementación cuidadosos” de AFR, a través de BBC.)

El fallo deja en claro que cualquier despliegue de este tipo debe estar más estrictamente delimitado que la aplicación SWP para cumplir con la ley de derechos humanos. Pero no ha dicho que el uso policial del reconocimiento facial sea intrínsecamente ilegal.

Las fuerzas tampoco pueden ignorar los requisitos de igualdad al hacer uso de dicha tecnología: existe la obligación, según el fallo, de tomar medidas para evaluar si el reconocimiento facial automatizado conlleva un riesgo de sesgo.

Dados los problemas de sesgo que han sido identificado con tales sistemas eso puede resultar el mayor obstáculo para el uso continuado por parte de la policía de este tipo de IA.

Fuegos artificiales serios en el juicio de Bridges: el deber de igualdad del sector público se convierte en una obligación seria en relación con garantizar la evaluación previa al despliegue con respecto a la discriminación racial y de género en los sistemas de aprendizaje automático en Inglaterra y Gales, incluso (especialmente) como ensayos.

—Michael Veale (@mikarv) 11 de agosto de 2020




Source link