Por qué Portland acaba de aprobar la prohibición de reconocimiento facial más estricta en los EE. UU.

Por qué Portland acaba de aprobar la prohibición de reconocimiento facial más estricta en los EE. UU.

  • El Ayuntamiento de Portland ha aprobado una de las prohibiciones de reconocimiento facial más severas en los EE. UU.
  • Además de prohibir que las oficinas de la ciudad utilicen la tecnología, la ordenanza también se aplicará a las empresas privadas y los gobiernos, no a los ciudadanos privados.
  • En medio de las protestas nacionales de Black Lives Matter, la vigilancia se ha convertido en un tema de interés renovado, ya que el software de reconocimiento facial a menudo exhibe prejuicios raciales.

    En un movimiento histórico, Portland, Oregon, ha promulgado la prohibición de reconocimiento facial más estricta y amplia del país. El miércoles, el ayuntamiento aprobó por unanimidad dos nuevas ordenanzas que prohíben tanto a las empresas privadas como a las oficinas de la ciudad utilizar el software de vigilancia “en lugares de alojamiento público”.

    La prohibición del uso de agencias gubernamentales entra en vigencia de inmediato, mientras que la prohibición del uso privado entra en vigencia el 1 de enero de 2021. Los ciudadanos privados no están sujetos a las reglas, por lo que la tecnología biométrica, como Apple Face ID, aún es permisible.

    No dejes que la tecnología te engañe. Domina tu mundo digital con los mejores explicadores de su clase y acceso ilimitado a Pop Mech, comenzando ahora.

    “Los residentes y visitantes de Portland deben disfrutar del acceso a los espacios públicos con una suposición razonable de anonimato y privacidad personal”, afirma la legislación municipal, en parte. “Esto es cierto especialmente para aquellos que históricamente han estado sobrevigilados y experimentan las tecnologías de vigilancia de manera diferente”.

    Desde un punto de vista práctico, eso significa que las agencias gubernamentales, como la Oficina de Policía de Portland, no pueden usar software de reconocimiento facial para videos de cámaras corporales, cámaras de tablero o cualquier otra forma de equipo de vigilancia. Y debido a la segunda ordenanza, entidades privadas como hoteles, tiendas de conveniencia las 24 horas e incluso aeropuertos (Delta usa reconocimiento facial para facturar pasajeros) no puede emplear la tecnología.

    Ese último bit es significativo porque representa un salto significativo con respecto a las prohibiciones de reconocimiento facial existentes en otras ciudades de EE. UU., Que tienen un alcance limitado. Boston, San Francisco y Oakland, California, tienen prohibiciones vigentes, pero solo pertenecen a agencias gubernamentales.

    Este contenido se importa de terceros. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información, en su sitio web.

    “[Portland]… lleva la prohibición un paso más allá al prohibir también su uso por parte de entidades privadas “, escribió Robert Cattanach, socio de la firma de abogados Dorsey & Whitney, con sede en Minneapolis, Minnesota, que se especializa en ciberseguridad, en un comunicado enviado a Mecánica popular. “El uso indiscriminado y el mal uso de esta tecnología es bien conocido y en muchos sentidos es aterrador”.

    Cattanach señala el uso “no transparente, no consensual” de la tecnología de reconocimiento facial en entornos comerciales como un ejemplo. En Portland, esa narrativa ya ha cobrado vida: en febrero, El Oregonian reportó que una cadena de tiendas de conveniencia en el noreste de Portland utilizaba cámaras de seguridad con reconocimiento facial para bloquear y desbloquear puertas y para vigilar a los ladrones.

    Este contenido se importa de YouTube. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información, en su sitio web.

    Un escenario similar se ha desarrollado en los EE. UU. Durante la serie de protestas de Black Lives Matter que estallaron en respuesta al asesinato policial de George Floyd en mayo, reavivando las preocupaciones sobre las herramientas de reconocimiento facial.

    Ya existe una creciente evidencia de que los datos faciales podrían usarse para identificar y detener a los manifestantes. En mayo, la policía de Miami utilizó el controvertido software Clearview AI para localizar a una mujer que supuestamente arrojó piedras a un oficial durante una protesta. En otro caso, las autoridades acusaron a un hombre de Filadelfia de destrozar coches de policía después de usar un software de reconocimiento facial del Departamento de Transporte del estado para hacer coincidir su rostro con imágenes de manifestantes publicadas en las redes sociales.

    La comisionada de la ciudad de Portland, Jo Ann Hardesty, señaló este posible uso indebido de la tecnología, y la consiguiente infracción de las libertades civiles, en un declaración publicado en Twitter, justo antes de que el ayuntamiento aprobara la ley.

    “Con estos informes preocupantes de vigilancia estatal de activistas de Black Lives Matter y el uso de tecnología de reconocimiento facial para ayudar en la vigilancia, es especialmente importante que Portland prohíba a sus oficinas el uso de esta tecnología”, dijo Hardesty. “Nadie debería ser empujado injustamente al sistema de justicia penal porque el algoritmo tecnológico identificó erróneamente a una persona inocente”.

    La Oficina de Policía de Portland se negó a comentar para esta historia.

    Este contenido se importa de Twitter. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información, en su sitio web.

    Es cierto que el software de reconocimiento facial puede dar lugar a condenas erróneas. En enero, Robert Williams de Detroit pasó más de 24 horas bajo custodia policial después de que un sistema de reconocimiento facial coincidiera por error con su rostro con el de otro hombre negro, capturado en imágenes de vigilancia durante una juerga de hurtos. La Unión Americana de Libertades Civiles (ACLU) dijo que era el primer caso de este tipo en los EE. UU.

    Es probable que esto sea el resultado de un sesgo algorítmico o un conjunto de errores informáticos repetibles que las personas introducen en un sistema, generalmente debido a datos deficientes o faltantes. En el caso del software de reconocimiento facial, es mucho más probable que la tecnología identifique correctamente las caras blancas que las caras negras.

    Este contenido se importa de {embed-name}. Es posible que pueda encontrar el mismo contenido en otro formato, o puede encontrar más información, en su sitio web.

    En julio de 2018, la ACLU realizó una prueba con un tipo de software de reconocimiento facial, Rekognition de Amazon, y encontró que emparejaba incorrectamente a 28 miembros del Congreso con otras personas que fueron arrestadas por un delito. La ACLU dijo que utilizó la herramienta disponible públicamente para realizar esta prueba por solo $ 12,33.

    Desde entonces, Amazon ha impuesto una moratoria de un año al software. Sin embargo, la empresa de comercio electrónico hizo gastar $ 24,000 en esfuerzos de cabildeo contra las ordenanzas de Portland, según Fight For the Future, una organización sin fines de lucro de derechos digitales con sede en Worcester, Massachusetts.

    Amazon no revela públicamente a todos sus clientes de Rekognition, por lo que no está claro si la policía de Portland alguna vez contrató a la empresa. Sin embargo, la Oficina del Sheriff del Condado de Washington, al oeste de Portland, no úselo.

    “Incluso los usos aparentemente inocuos del reconocimiento facial … representan una seria amenaza para la seguridad”.

    Los críticos argumentan que una prohibición total del reconocimiento facial no es la medida más ágil. Los propietarios de tiendas de conveniencia en Portland que usan el reconocimiento facial para atrapar a los ladrones, por ejemplo, ven la tecnología como una forma de disuasión y como una forma de proteger al personal. Todavía hay otros casos de uso específicos en los que el software podría hacer más bien que mal, según Cattanach.

    “Eficiencias y conveniencia significativas con controles consensuales en los aeropuertos; seguridad mejorada en entornos públicos para identificar a terroristas conocidos; y asistencia invaluable para las fuerzas del orden en entornos de emergencia apropiados [are potential benefits],” él dice.

    Lia Holland, una activista de Fight for the Future, que vive en Portland, está totalmente en desacuerdo.

    “Incluso los usos aparentemente inocuos del reconocimiento facial, como acelerar las líneas o usar su rostro como forma de pago, normalizan el acto de entregar información biométrica sensible y representan una seria amenaza para la seguridad y las libertades civiles”, dijo en un comunicado enviado. a Mecánica popular.

    “Imagínese ser identificado erróneamente como un ladrón de tiendas en Rite Aid y cuando vaya a recoger su receta, las puertas no se abrirán. Sin tribunal, sin recurso. Solo un algoritmo hecho a propósito demasiado complejo para escrutar”.

    Solo el tiempo dirá cómo reaccionarán el público, los municipios y las empresas privadas a las nuevas ordenanzas, pero una pregunta se avecina: será otras ciudades siguen su ejemplo? Y si es así, ¿será suficiente para impulsar a los desarrolladores a construir sistemas más equitativos?

    Este contenido es creado y mantenido por un tercero y se importa a esta página para ayudar a los usuarios a proporcionar sus direcciones de correo electrónico. Es posible que pueda encontrar más información sobre este y contenido similar en piano.io




Source link