Clearview AI dijo que violó la ley de privacidad de Australia y se le ordenó eliminar datos

Clearview AI dijo que violó la ley de privacidad de Australia y se le ordenó eliminar datos

Después de Canadá, ahora Australia descubrió que la controvertida empresa de reconocimiento facial, Clearview AI, violó las leyes nacionales de privacidad cuando recopiló de forma encubierta los datos biométricos faciales de los ciudadanos y los incorporó a su servicio de identificación de identidades impulsado por inteligencia artificial, que vende a los organismos encargados de hacer cumplir la ley y otros.

en un declaración Hoy, la comisionada de información y de privacidad de Australia, Angelene Falk, dijo que la herramienta de reconocimiento facial de Clearview AI violó la Ley de Privacidad del país de 1988 al:

recopilar información confidencial de australianos sin consentimiento recopilar información personal por medios injustos no tomar medidas razonables para notificar a las personas sobre la recopilación de información personal no tomar medidas razonables para garantizar que la información personal revelada sea precisa, teniendo en cuenta el propósito de la divulgación no tomar medidas razonables Pasos para implementar prácticas, procedimientos y sistemas para garantizar el cumplimiento de los Principios de privacidad australianos.

En lo que parece una gran victoria para la privacidad en Australia, el regulador ordenó a Clearview que deje de recopilar biometría facial y plantillas biométricas de los australianos; y destruir todas las imágenes y plantillas existentes que contiene.

La Oficina del Comisionado de Información de Australia (OAIC) ​​llevó a cabo una investigación conjunta sobre Clearview con la agencia de protección de datos del Reino Unido, la Oficina de la Comisión de Información (IOC).

Sin embargo, el regulador del Reino Unido aún no ha anunciado ninguna conclusión.

En un separado declaración hoy, que posiblemente se lea un poco nerviosa, la ICO dijo que está “considerando sus próximos pasos y cualquier acción regulatoria formal que pueda ser apropiada bajo las leyes de protección de datos del Reino Unido”.

Una portavoz de la ICO se negó a dar más detalles, como cuánto tiempo estará pensando en hacer algo.

Los ciudadanos del Reino Unido deberían esperar que el regulador no tarde tanto en “considerar” a Clearview como lo ha hecho para tratar (pero no actuar contra) el problema de legalidad de las tecnologías de la información y las comunicaciones.

Mientras tanto, otros reguladores europeos ya han golpeado a los usuarios de Clearview con sanciones …

De vuelta al otro lado del mundo, la OAIC no pierde el tiempo actuando contra Clearview, ni se anda con rodeos.

En comentarios públicos sobre la decisión de la OAIC (pdf) al encontrar que Clearview infringía la ley australiana, Falk dijo: “La recopilación encubierta de este tipo de información confidencial es irrazonablemente intrusiva e injusta. Implica un riesgo significativo de daño a las personas, incluidos los grupos vulnerables como los niños y las víctimas de delitos, cuyas imágenes se pueden buscar en la base de datos de Clearview AI “.

“Por su naturaleza, esta información de identidad biométrica no se puede volver a emitir ni cancelar y también se puede reproducir y utilizar para el robo de identidad. Las personas que figuran en la base de datos también pueden estar en riesgo de identificación errónea “, dijo también, y agregó:” Estas prácticas están muy por debajo de las expectativas de los australianos para la protección de su información personal “.

La OAIC también encontró que los impactos en la privacidad del sistema biométrico de Clearview AI “no eran necesarios, legítimos y proporcionados, teniendo en cuenta los beneficios de interés público”.

“Cuando los australianos utilizan las redes sociales o los sitios de redes profesionales, no esperan que una entidad comercial recopile sus imágenes faciales sin su consentimiento para crear plantillas biométricas con fines de identificación completamente ajenos”, dijo Falk.

“El raspado indiscriminado de las imágenes faciales de las personas, de las cuales solo una fracción estaría relacionada con las investigaciones policiales, puede afectar negativamente las libertades personales de todos los australianos que perciben que están bajo vigilancia”.

El regulador de Australia dijo que entre octubre de 2019 y marzo de 2020, Clearview AI proporcionó pruebas de su herramienta a algunas fuerzas policiales locales, que realizaron búsquedas utilizando imágenes faciales de personas ubicadas en Australia.

La OAIC agregó que actualmente está finalizando una investigación sobre el uso de prueba de la tecnología por parte de la Policía Federal Australiana para decidir si la fuerza cumplió con los requisitos del Código de Privacidad de las Agencias del Gobierno de Australia para evaluar y mitigar los riesgos de privacidad. Por lo tanto, queda por ver si la policía local recibirá una sanción.

A principios de este año, el organismo de control de protección de datos de Suecia advirtió a la policía del país sobre lo que dijo que era un uso ilegal de la herramienta de Clearview, emitiendo una multa de 250.000 euros en ese caso.

Volviendo a la OAIC, dijo que Clearview se defendió argumentando que la información que manejaba no eran datos personales y que, como empresa con sede en EE. UU., No estaba bajo la jurisdicción de la Ley de Privacidad de Australia. Clearview también afirmó al regulador que había dejado de ofrecer servicios a la policía australiana poco después de que comenzara la investigación de la OAIC.

Sin embargo, Falk desestimó los argumentos de Clearview, diciendo que estaba satisfecha de que debía cumplir con la ley australiana y que la información que manejaba era información personal cubierta por la Ley de Privacidad.

También dijo que el caso refuerza la necesidad de que Australia fortalezca las protecciones a través de un revisión actual de la Ley de Privacidad, incluida la restricción o prohibición de prácticas como la extracción de datos de información personal de plataformas en línea. Y agregó que el caso plantea preguntas adicionales sobre si las plataformas en línea están haciendo lo suficiente para prevenir y detectar el raspado de datos personales.

“Las actividades de Clearview AI en Australia implican la recopilación automatizada y repetitiva de información biométrica sensible de los australianos a gran escala, con fines de lucro. Estas transacciones son fundamentales para su empresa comercial ”, dijo Falk. “La solicitud de patente de la empresa también demuestra la capacidad de la tecnología para ser utilizada para otros fines, como citas, venta minorista, distribución de beneficios sociales y concesión o denegación de acceso a una instalación, lugar o dispositivo”.

Se contactó con Clearview para comentar sobre la decisión de la OAIC.

La compañía confirmó que apelará, enviando esta declaración (a continuación), atribuida a Mark Love, BAL Lawyers, en representación de Clearview AI:

Clearview AI ha hecho todo lo posible para cooperar con la Oficina del Comisionado de Información de Australia. Al hacerlo, Clearview AI ha ofrecido voluntariamente una cantidad considerable de información, sin embargo, para nosotros y para Clearview AI es evidente que el Comisionado no ha entendido correctamente cómo Clearview AI lleva a cabo sus negocios. Clearview AI opera legítimamente de acuerdo con las leyes de sus lugares de negocios.

Clearview AI tiene la intención de solicitar la revisión de la decisión del Comisionado por el Tribunal Administrativo de Apelaciones (australiano). La decisión del Comisionado no solo ha fallado en la manera de operar de Clearview AI, sino que el Comisionado carece de jurisdicción.

Para ser claros, Clearview AI no ha violado ninguna ley ni ha interferido con la privacidad de los australianos. Clearview AI no opera en Australia, no tiene usuarios australianos.

La controvertida empresa de reconocimiento facial se ha enfrentado a un litigio en su propio territorio en los EE. UU., En virtud de la Ley de Privacidad de la Información Biométrica de Illinois.

Mientras que, a principios de este año, Minneapolis votó a favor de prohibir el uso de software de reconocimiento facial para su departamento de policía, ilegalizando efectivamente el uso de herramientas como Clearview por parte de las fuerzas de seguridad locales.

Las consecuencias del raspado de Clearview AI de la web pública y los sitios de redes sociales para acumular una base de datos de más de 3 mil millones de imágenes con el fin de vender un servicio global de identificación de coincidencias a las fuerzas del orden pueden haber contribuido a un anuncio hecho ayer por la empresa matriz de Facebook, Meta: que dijo que eliminaría su propia montaña de datos biométricos faciales.

El gigante tecnológico citó “preocupaciones crecientes sobre el uso de la tecnología en su conjunto”.

Actualizar: Además de la declaración anterior, el fundador de Clearview, Hoan Ton-That, también ha emitido una respuesta personal (pegada a continuación) a la decisión de la OAIC, en la que expresa su decepción y argumenta que la decisión del comisionado de privacidad malinterpreta el valor de su “crimen”. luchando ”contra la tecnología con la sociedad:

Crecí en Australia antes de mudarme a San Francisco a los 19 años para seguir mi carrera y crear una tecnología de reconocimiento facial de lucha contra el crimen consecuente conocida en todo el mundo. Soy ciudadano de Australia y Estados Unidos, los dos países que más me preocupan. Mi empresa y yo hemos actuado en el mejor interés de estas dos naciones y su gente al ayudar a las fuerzas del orden a resolver crímenes atroces contra niños, ancianos y otras víctimas de actos sin escrúpulos. Solo recopilamos datos públicos de Internet abierta y cumplimos con todos los estándares de privacidad y leyes. Respeto el tiempo y el esfuerzo que los funcionarios australianos dedicaron a evaluar aspectos de la tecnología que construí. Pero estoy desanimado por la mala interpretación de su valor para la sociedad. Espero poder entablar una conversación con líderes y legisladores para discutir a fondo los problemas de privacidad, de modo que el verdadero valor de la tecnología de Clearview AI, que ha demostrado ser tan esencial para la aplicación de la ley, pueda continuar haciendo que las comunidades sean seguras.


Source link