Ícono del sitio La Neta Neta

Ahora Amazon está prohibiendo su controvertido software de reconocimiento facial

Ahora Amazon está prohibiendo su controvertido software de reconocimiento facial

  • Amazon dice que está poniendo una moratoria de un año en su software Rekognition.
  • La tecnología de reconocimiento facial ha sido objeto de críticas en años anteriores por no identificar rostros no blancos, lo que podría tener consecuencias no deseadas, como el encarcelamiento injusto.
  • Los think tanks que se centran en la tecnología dicen que la legislación por sí sola no puede solucionar el problema del sesgo algorítmico.

    Días después de que IBM dio el paso sin precedentes para detener todo el desarrollo, la investigación y las ventas de su tecnología de reconocimiento facial por las preocupaciones de que se dirige injustamente a las personas de color, Amazon dijo que también pondría una moratoria de un año en Rekognition, su propio facial ampliamente implementado software de reconocimiento

    Amazon dejará de vender el software a los departamentos de policía, aunque no está claro si esto afectará a los departamentos que ya están utilizando la herramienta.

    “Hemos abogado por que los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial y, en los últimos días, el Congreso parece estar listo para asumir este desafío”, dijo Amazon en un comunicado el miércoles. “Esperamos que esta moratoria de un año pueda darle al Congreso suficiente tiempo para implementar las reglas apropiadas, y estamos listos para ayudar si se lo solicitan”.

    Pero destacados think tanks tecnológicos como la Electronic Frontier Foundation (EFF) y Fight for the Future (FFF) tienen mucho que elegir con Amazon. Dicen que los legisladores no podrán simplemente regular los problemas de la tecnología.

    “El hecho de que las empresas estén dando un paso adelante y admitiendo cuán dañina es esta tecnología debería ser una gran señal de alerta de que la tecnología, regulada o no, puede presentar graves amenazas a las libertades civiles”, dice Matthew Guariglia, analista de políticas de EFF. Mecánica Popular.

    Si bien EFF acepta que el gobierno debe actuar sobre la tecnología de vigilancia, Guariglia dice que la intervención legislativa por sí sola no cambiará los problemas subyacentes inherentes al uso gubernamental de herramientas de reconocimiento facial.

    “Incluso si la tecnología fuera regulada, su uso por parte del gobierno exacerbaría un problema policial en esta nación que ya afecta desproporcionadamente a los afroamericanos, los inmigrantes, los desalojados y otras poblaciones vulnerables”, dice Guariglia.

    Mientras tanto, el grupo de derechos digitales FFF está llevando las cosas un paso más allá. El grupo cuenta Mecánica Popular ese La prohibición de un año de Amazon es “un truco de relaciones públicas”.

    “[Amazon has] ha estado pidiendo al gobierno federal que ‘regule’ el reconocimiento facial, porque quieren que sus abogados corporativos ayuden a redactar la legislación, para asegurarse de que sea amigable con su modelo comercial capitalista de vigilancia “, dice Evan Greer, subdirector de FFF.” Es probable El Congreso pronto impondrá algunas limitaciones al uso policial del reconocimiento facial. Amazon quiere fingir que fue su idea todo el tiempo. Pasarán el próximo año ‘mejorando’ la precisión de sus algoritmos de reconocimiento facial, haciéndolo aún más efectivo como herramienta de vigilancia orwelliana “.

    “El hecho de que las empresas den un paso adelante y admitan cuán dañina es esta tecnología debería ser una gran señal de alerta de que la tecnología, regulada o no, puede representar graves amenazas a las libertades civiles”.

    Durante años, los críticos de Rekognition de Amazon han señalado su sesgo algorítmico problemático, algo que afecta a la tecnología de reconocimiento facial en general. En julio de 2018, la Unión Estadounidense de Libertades Civiles (ACLU) realizó una prueba con el software y descubrió que coincidía incorrectamente con 28 miembros del Congreso como otras personas que fueron arrestadas por un delito. La ACLU dijo que utilizó la herramienta disponible públicamente para realizar esta prueba por solo $ 12.33.

    La prueba de ACLU utilizó Amazon Rekognition para comparar imágenes de miembros del Congreso con una base de datos de fotografías policiales. Los resultados incluyeron 28 coincidencias incorrectas.

    ACLU

    “Los partidos falsos eran desproporcionadamente de personas de color, incluidos seis miembros del Caucus Negro del Congreso, entre ellos el legendario representante de los derechos civiles John Lewis (D-Ga.)”, Dijo la ACLU. “Estos resultados demuestran por qué el Congreso debería unirse a la ACLU para pedir una moratoria sobre el uso de la vigilancia de la cara por parte de las fuerzas del orden público”.

    En un informe mordaz de mayo de 2019 del Centro de Privacidad y Tecnología (CPT) de Georgetown Law, titulado “Basura adentro, basura afuera”, los autores detallan cómo los departamentos de policía de todo el país están alimentando datos defectuosos del software de reconocimiento facial. Al buscar un sospechoso, la policía mostrará un algoritmo con imágenes de celebridades que creen que comparten características físicas con el sospechoso o con bocetos compuestos.

    Luego, en enero de 2019, la científica de computación ghanés-estadounidense Joy Buolamwini publicó un estudio que encontró que la herramienta Rekognition de Amazon clasificó erróneamente a las mujeres como hombres el 19 por ciento de las veces, y el software identificó erróneamente a las mujeres de piel oscura el 31 por ciento de las veces.

    Este contenido se importa de Twitter. Puede encontrar el mismo contenido en otro formato, o puede encontrar más información en su sitio web.

    No está claro qué mejoras, si las hay, Amazon planea implementar para hacer que la herramienta Rekognition sea más precisa. En una carta de mayo de 2018 a Amazon, los miembros del Caucus Negro del Congreso instaron a Amazon a contratar más abogados, ingenieros y científicos de datos de color para ayudar a calibrar Rekognition para dar cuenta de los prejuicios raciales.

    Ellos escribieron en ese momento:

    “Está bastante claro que las comunidades de color tienen una vigilancia más intensa y agresiva que las comunidades blancas. Este status quo da como resultado un sobremuestreo de datos que, una vez utilizados como entradas para un marco analítico que aprovecha la inteligencia artificial, podría afectar negativamente los resultados en esas comunidades sobremuestreadas “Estamos seriamente preocupados de que se tomen decisiones equivocadas debido al conjunto de datos asimétricos producidos por lo que consideramos prácticas policiales injustas y, a veces, inconstitucionales”.

    A lo largo de los años, Amazon ha mantenido que su software no tiene problemas subyacentes, pero quienes usan la tecnología deberían prestar más atención a su umbral de confianza, que es básicamente un porcentaje asignado a un resultado que le indica qué tan seguro es el sistema de que tiene Identificó positivamente a una persona.

    “[Amazon Web Services] toma en serio sus responsabilidades. Pero creemos que es un enfoque incorrecto imponer una prohibición a las nuevas tecnologías prometedoras porque podrían ser utilizadas por actores malos para propósitos nefastos en el futuro “, dijo Matt Wood, gerente general de inteligencia artificial de AWS en ese momento”. el mundo sería un lugar muy diferente si hubiéramos restringido a la gente la compra de computadoras porque era posible usar esa computadora para hacer daño “.

    Este contenido es creado y mantenido por un tercero, e importado a esta página para ayudar a los usuarios a proporcionar sus direcciones de correo electrónico. Es posible que pueda encontrar más información sobre este y contenido similar en piano.io

    Esta sección de comentarios es creada y mantenida por un tercero, e importada a esta página. Es posible que pueda encontrar más información en su sitio web.


    Source link
    Salir de la versión móvil