La amenaza real de las voces falsas en tiempos de crisis

La amenaza real de las voces falsas en tiempos de crisis

Jinyan Zang es investigador en Data Privacy Lab y Ph.D. Candidato a Gobierno en la Universidad de Harvard.

Latanya Sweeney Colaboradora

Latanya Sweeney es profesora residente de gobierno y tecnología en el Departamento de Gobierno de la Universidad de Harvard, editora en jefe de Technology Science y directora fundadora de Technology Science Initiative y Data Privacy Lab en el Instituto de Ciencias Sociales Cuantitativas de Harvard.

Max Weiss es un estudiante de último año en la Universidad de Harvard y el estudiante que implementó el experimento Deepfake Text.

A medida que las agencias federales toman medidas cada vez más estrictas para tratar de limitar la propagación de la nueva pandemia de coronavirus dentro de los EE. UU., ¿cómo pueden los estadounidenses y las empresas estadounidenses afectadas por estas reglas aportar sus opiniones y experiencias? Debido a que muchas de las nuevas reglas, como restricciones para viajar y mayor vigilancia, requieren expansiones del poder federal más allá de las circunstancias normales, nuestras leyes requieren que el gobierno federal publique estas reglas públicamente y permita que el público contribuya con sus comentarios a las reglas propuestas en línea. Pero, ¿son seguros los sitios web federales de comentarios públicos, una institución vital para la democracia estadounidense, en este momento de crisis? ¿O son vulnerables al ataque de bots?

En diciembre de 2019, publicamos un nuevo estudio para ver de primera mano cuán vulnerable es el proceso de comentarios públicos a un ataque automatizado. Usando métodos de inteligencia artificial (IA) disponibles públicamente, generamos con éxito 1,001 comentarios de texto falso profundo, texto generado por computadora que imita de cerca el habla humana, y los enviamos al sitio web de los Centros de Servicios de Medicare y Medicaid (CMS) para una regla federal propuesta que instituiría requisitos obligatorios de informes de trabajo para ciudadanos con Medicaid en Idaho.

Los comentarios que producimos usando texto falso profundo constituyeron más del 55 % del total de 1810 comentarios enviados durante el período federal de comentarios públicos. En un estudio de seguimiento, les pedimos a las personas que identificaran si los comentarios eran de un bot o de un ser humano. Los encuestados solo acertaron la mitad de las veces, la misma probabilidad que las conjeturas aleatorias.

Créditos de imagen: Zang/Weiss/Sweney

El ejemplo anterior es un texto falso profundo generado por el bot que todos los encuestados pensaron que era de un ser humano.

Finalmente informamos a CMS de nuestros comentarios falsos y los retiramos del registro público. Pero un atacante malintencionado probablemente no haría lo mismo.

Se han producido ataques anteriores de comentarios falsos a gran escala en sitios web federales, como el Ataque de 2017 al sitio web de la FCC sobre la regla propuesta para poner fin a las regulaciones de neutralidad de la red.

Durante el período de comentarios sobre la neutralidad de la red, las empresas contratadas por el grupo industrial Broadband for America utilizaron bots para crear comentarios que expresaban su apoyo a la derogación de la neutralidad de la red. Luego enviaron millones de comentarios, a veces incluso usando las identidades robadas de votantes fallecidos y los nombres de personajes ficticios, para distorsionar la apariencia de la opinión pública.

UN análisis de texto retroactivo de los comentarios encontró que el 96-97% de los más de 22 millones de comentarios sobre la propuesta de la FCC para derogar la neutralidad de la red probablemente eran campañas de bots coordinadas. Estas campañas utilizaron métodos de búsqueda y reemplazo relativamente poco sofisticados y llamativos, fácilmente detectables incluso en esta escala masiva. Pero incluso después de que las investigaciones revelaran que los comentarios eran fraudulentos y se hicieron utilizando técnicas informáticas simples de búsqueda y reemplazo, la FCC aún los aceptó como parte del proceso de comentarios públicos.

Incluso estas campañas relativamente poco sofisticadas pudieron afectar el resultado de una política federal. Sin embargo, nuestra demostración de la amenaza de los bots que envían textos falsos muestra que los ataques futuros pueden ser mucho más sofisticados y mucho más difíciles de detectar.

Las leyes y la política de los comentarios públicos

Seamos claros: La capacidad de comunicar nuestras necesidades y que sean consideradas es la piedra angular del modelo democrático. Tal como está consagrado en la Constitución y defendido ferozmente por las organizaciones de libertades civiles, cada estadounidense tiene garantizado un papel en la participación en el gobierno a través de la votación, la autoexpresión y la disidencia.

Créditos de imagen: Zang/Weiss/Sweney

Cuando se trata de nuevas reglas de las agencias federales que pueden tener un gran impacto en todo Estados Unidos, los períodos de comentarios públicos son el método legalmente requerido para permitir que los miembros del público, los grupos de defensa y las corporaciones que se verían más afectados por las reglas propuestas expresen sus preocupaciones al público. agencia y exigir que la agencia considere estos comentarios antes de decidir sobre la versión final de la regla. Este requisito de comentarios públicos ha estado vigente desde la aprobación de la Ley de Procedimiento Administrativo de 1946. En 2002, la Ley de Gobierno Electrónico requirió que el gobierno federal creara una herramienta en línea para recibir comentarios públicos. A lo largo de los años, ha habido varios fallos judiciales que requieren que la agencia federal demuestre que realmente examinó los comentarios presentados y publique cualquier análisis de materiales relevantes y la justificación de las decisiones tomadas a la luz de los comentarios públicos. [see Citizens to Preserve Overton Park, Inc. v. Volpe, 401 U. S. 402, 416 (1971); Home Box Office, supra, 567 F.2d at 36 (1977), Thompson v. Clark, 741 F. 2d 401, 408 (CADC 1984)].

De hecho, solo teníamos un sitio web de comentarios públicos de CMS para probar la vulnerabilidad a los envíos de texto falsos profundos en nuestro estudio, porque en junio de 2019, la Corte Suprema de los Estados Unidos falló en una decisión de 7-1 que CMS no podía omitir los requisitos de comentarios públicos de la Ley de Procedimiento Administrativo al revisar las propuestas de los gobiernos estatales para agregar requisitos de informes de trabajo a las reglas de elegibilidad de Medicaid dentro de su estado.

El impacto de los comentarios públicos sobre la regla final por parte de una agencia federal puede ser sustancial según la investigación de las ciencias políticas. Por ejemplo, en 2018, investigadores de la Universidad de Harvard descubrieron que los bancos que comentaron sobre las reglas relacionadas con Dodd-Frank de la Reserva Federal obtuvo $ 7 mil millones en rendimientos en exceso en comparación con los no participantes. Cuando examinaron los comentarios enviados a la “Regla Volcker” y la regla de intercambio de tarjetas de débito, encontraron una influencia significativa de los comentarios presentados por diferentes bancos durante el “proceso de elaboración de salchichas” desde la regla propuesta inicial hasta la regla final.

Más allá de comentar directamente usando sus nombres corporativos oficiales, también hemos visto cómo un grupo de la industria, Broadband for America, en 2017 enviaría millones de comentarios falsos en apoyo de la regla de la FCC para poner fin a la neutralidad de la red con el fin de crear la falsa percepción de un amplio apoyo político para la regla de la FCC entre el público estadounidense.

Soluciones tecnológicas para falsificar texto en comentarios públicos

Si bien nuestro estudio destaca la amenaza de los textos falsos profundos para interrumpir los sitios web de comentarios públicos, esto no significa que debamos acabar con esta antigua institución de la democracia estadounidense, sino que debemos identificar cómo se puede usar la tecnología para soluciones innovadoras que acepten comentarios públicos. de humanos reales mientras rechaza el texto falso profundo de los bots.

Hay dos etapas en el proceso de comentarios públicos: (1) envío de comentarios y (2) aceptación de comentarios, donde la tecnología se puede utilizar como soluciones potenciales.

En la primera etapa del envío de comentarios, la tecnología se puede utilizar para evitar que los bots envíen comentarios falsos en primer lugar; lo que aumenta el costo para que un atacante necesite reclutar una gran cantidad de humanos en su lugar. Una solución tecnológica con la que muchos ya están familiarizados son los cuadros CAPTCHA que vemos en la parte inferior de los formularios de Internet que nos piden que identifiquemos una palabra, ya sea visual o audiblemente, antes de poder hacer clic en enviar. Los CAPTCHA brindan un paso adicional que hace que el proceso de envío sea cada vez más difícil para un bot. Si bien estas herramientas se pueden mejorar para accesibilidad para personas con discapacidadserían un paso en la dirección correcta.

Sin embargo, los CAPTCHA no evitarían que un atacante dispuesto a pagar mano de obra barata en el extranjero resuelva cualquier prueba de CAPTCHA para enviar comentarios falsos. Una forma de eludir eso puede ser exigir una identificación estricta junto con cada envío, pero eso eliminaría la posibilidad de comentarios anónimos que actualmente son aceptados por agencias como CMS y la Administración de Alimentos y Medicamentos (FDA). Los comentarios anónimos sirven como un método de protección de la privacidad para las personas que pueden verse significativamente afectadas por una regla propuesta sobre un tema delicado, como la atención médica, sin necesidad de revelar su identidad. Por lo tanto, el desafío tecnológico sería construir un sistema que pueda separar el paso de autenticación del usuario del paso de envío de comentarios para que solo las personas autenticadas puedan enviar un comentario de forma anónima.

Finalmente, en la segunda etapa de aceptación de comentarios, se puede usar una mejor tecnología para distinguir entre el texto falso y los envíos humanos. Mientras nuestro estudio descubrió que nuestra muestra de más de 100 personas encuestadas no pudo identificar los ejemplos de texto falso, los algoritmos de detección de spam más sofisticados en el futuro pueden tener más éxito. A medida que los métodos de aprendizaje automático avanzan con el tiempo, es posible que veamos una carrera armamentista entre la generación de texto falso profundo y los algoritmos de identificación de texto falso profundo.

El reto de hoy

Si bien las tecnologías futuras pueden ofrecer soluciones más integrales, la amenaza de los textos falsos profundos para nuestra democracia estadounidense es real y está presente hoy. Por lo tanto, recomendamos que todos los sitios web federales de comentarios públicos adopten CAPTCHA de última generación como medida provisional de seguridad, una posición que también cuenta con el respaldo de la Informe del Subcomité de Investigaciones del Senado de EE. UU. de 2019 sobre abusos del proceso federal de elaboración de normas de notificación y comentarios.

Para desarrollar futuras soluciones tecnológicas más robustas, necesitaremos construir un esfuerzo de colaboración entre el gobierno, los investigadores y nuestros innovadores en el sector privado. Es por eso que en la Universidad de Harvard nos hemos unido a la Red Universitaria de Tecnología de Interés Público junto con otras 20 instituciones educativas, New America, la Fundación Ford y la Fundación Hewlett. En conjunto, nos dedicamos a ayudar a inspirar a una nueva generación de tecnólogos y líderes políticos con mentalidad cívica. A través del plan de estudios, la investigación y los programas de aprendizaje experiencial, esperamos construir el campo de la tecnología de interés público y un futuro en el que la tecnología se haga y se regule pensando en el público desde el principio.

Si bien el COVID-19 ha afectado a muchas partes de la sociedad estadounidense, no ha impedido que las agencias federales bajo la administración Trump continúen proponiendo nuevas reglas de desregulación que pueden tener legados duraderos que se sentirán mucho después de que termine la pandemia actual. Por ejemplo, el 18 de marzo de 2020, la Agencia de Protección Ambiental (EPA) propuso nuevas reglas sobre la limitación de los estudios de investigación que se pueden usar para respaldar las regulaciones de la EPAque han recibido más de 610,000 comentarios hasta el 6 de abril de 2020. El 2 de abril de 2020, el Departamento de Educación propuso nuevas reglas para Regulaciones permanentemente relajadas para la educación en línea y el aprendizaje a distancia.. El 19 de febrero de 2020, la FCC reabrió los comentarios públicos sobre sus reglas de neutralidad de la redque en 2017 vio 22 millones de comentarios presentado por bots, luego de que un tribunal federal dictaminara que la FCC ignoró cómo el fin de la neutralidad de la red afectaría la seguridad pública y los programas de acceso a teléfonos celulares para estadounidenses de bajos ingresos.

Los sitios web de comentarios públicos federales ofrecen la única manera para que el público y las organizaciones estadounidenses expresen sus preocupaciones a la agencia federal antes de que se determinen las reglas finales. Debemos adoptar mejores defensas tecnológicas para garantizar que el texto falso no amenace aún más la democracia estadounidense durante una época de crisis.


Source link