Facebook está prohibiendo videos de Deepfake antes de las elecciones de 2020

Facebook está prohibiendo videos de Deepfake antes de las elecciones de 2020

  • En una publicación de blog publicada el lunes, Facebook dijo que prohibiría todos los “medios manipulados engañosos”, incluidos los falsos, antes de las elecciones presidenciales de 2020.
  • Los deepfakes son un tipo de medios, generalmente en forma de video, que usan inteligencia artificial para hacer que el sujeto parezca hacer o decir algo que, en realidad, no hicieron.
  • Durante una audiencia de la Cámara de Energía y Comercio el miércoles que se dirigió a los medios manipulados, Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, respondió preguntas.

    ¿Recuerdas el video viral de Nancy Pelosi que el presidente Donald Trump publicó en Twitter el verano pasado? El video, que fue alterado, mostraba al Presidente demócrata de la Cámara arrastrando lo que parece ser un soliloquio borracho. Sin embargo, el video fue alterado con inteligencia artificial. En otras palabras, era una falsificación profunda.

    Si bien puede ser demasiado tarde para las personas que vieron y compartieron esta falsa política en particular, Facebook está tratando de evitar la propagación de esta forma de desinformación de la nueva era durante el resto del ciclo de elecciones presidenciales de 2020 a través de una nueva política interna sobre falsificaciones profundas.

    En una publicación de blog publicada el lunes, Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, escribió que la compañía está haciendo nuevos esfuerzos para “eliminar los medios manipulados engañosos”.

    Las nuevas reglas del gigante de las redes sociales llegaron pocos días antes de una audiencia maratónica de House Energy and Commerce centrada en los medios manipulados el miércoles por la mañana. Bickert, autor de la publicación de Facebook de Facebook, fue uno de los testigos que el comité interrogó. Reiteró una y otra vez que la compañía quiere garantizar que las personas tengan control sobre sus propios datos y lo que ven en la plataforma, pero fue un poco indirecta al responder algunas preguntas específicas.

    Era evidente que el comité está buscando una legislación que aborde las falsificaciones profundas en el futuro, dado su potencial para interrumpir el proceso político, las elecciones, el periodismo e incluso la libertad individual.

    “La tecnología está superando a la tecnología y a las personas”, dijo Lisa Blunt Rochester, una representante de Estados Unidos de Delaware, durante la audiencia.

    ¿Qué es un deepfake?

    imagen

    El gif de arriba no está tomado de un video real del ex presidente Richard Nixon dando un discurso sobre la misión de la luna Apolo, sino de un video falso donde anuncia que los astronautas a bordo han muerto.

    MIT Media Lab

    En 2014, Ian Goodfellow, Ph.D. estudiante que ahora trabaja en Apple, inventó el deepfake, que se basa en redes de confrontación generativas o GAN.

    Los algoritmos de ayuda de GAN van más allá de la simple tarea de clasificar datos en el ámbito de la creación de datos, en este caso, imágenes. Esto sucede cuando dos GAN intentan engañarse mutuamente para pensar que una imagen es real. Usando tan solo una imagen, una GAN probada y probada puede crear un video clip de, digamos, Richard Nixon diciendo algo que es evidentemente falso y que ni siquiera dijo en realidad. (Sí, esto ya se ha hecho).

    “De manera crucial, el sistema puede inicializar los parámetros tanto del generador como del discriminador de una manera específica de la persona, de modo que la capacitación se puede basar en unas pocas imágenes y realizarse rápidamente, a pesar de la necesidad de ajustar decenas de millones de parámetros “, Escribieron los investigadores en mayo de 2019 papel eso describe lo simple que es crear una imagen falsa de una cabeza flotante a partir de una sola imagen. “Demostramos que este enfoque es capaz de aprender modelos de cabezas parlantes altamente realistas y personalizados de nuevas personas e incluso pinturas de retratos”.

    En el ejemplo de Nixon, un equipo del MIT utilizó el aprendizaje profundo, un tipo de inteligencia artificial, para editar el video y empleó a un actor de voz para construir la voz de Nixon. Junto a Canny AI, una startup israelí, los investigadores estudiaron estrategias de reemplazo de diálogo de video para replicar el movimiento de los labios de Nixon mientras hablaban, ayudando a que su boca coincidiera con el discurso falso. El producto final es un video verdaderamente creíble de Nixon diciéndole al público estadounidense que la misión de alunizaje había fallado.

    Claramente, videos como este y el deep fake de Pelosi no solo son una amenaza para las noticias creíbles, sino también para la seguridad nacional y, sí, incluso las elecciones.

    Estrategia de Facebook

    Facebook está adoptando un enfoque específico de dos frentes para marcar y eliminar las falsificaciones profundas. Para que una imagen se elimine, debe cumplir con los siguientes criterios, según la publicación del blog:

    • Se ha editado o sintetizado, más allá de los ajustes por claridad o calidad, de maneras que no son evidentes para una persona promedio y que probablemente inducirán a error a alguien a pensar que un sujeto del video dijo palabras que en realidad no dijo.
    • Es el producto de la inteligencia artificial o el aprendizaje automático que fusiona, reemplaza o superpone contenido en un video, haciéndolo parecer auténtico.

      Sin embargo, los videos de sátira y parodia siguen siendo seguros, al igual que los videos que se han editado solo para omitir o cambiar el orden de las palabras.

      Lo que pasa con el deepfake de Pelosi es que no parece que la nueva prohibición de Facebook realmente cubra ese video. Después de que el video se volvió viral el verano pasado, fue ampliamente visto en Facebook. De acuerdo a The Verge Facebook dijo que el video no violaba las políticas de la compañía en ese momento. Con las nuevas reglas, todavía parece que la falsificación profunda de Pelosi podría deslizarse por las grietas y permanecer publicada en el sitio. Esto se debe a que ese video específico no se creó con inteligencia artificial, sino que probablemente se editó utilizando un software fácilmente disponible que podría ralentizar el discurso de Pelosi a un insulto borracho.

      Aún así, Facebook dice que los videos que no cumplen con sus estándares de eliminación de falsificaciones profundas pueden ser revisados ​​por uno de sus verificadores de hechos independientes, incluidos 50 socios globales que operan en más de 40 idiomas diferentes.

      “Si un verificador de hechos califica una foto o un video como falso o parcialmente falso, reducimos significativamente su distribución en News Feed y lo rechazamos si se está publicando como un anuncio”, dice la publicación del blog. “Y críticamente, las personas que lo ven, tratan de compartirlo o ya lo han compartido, verán advertencias que les alertarán de que es falso”.

      Facebook dice que si todos los videos manipulados simplemente se eliminaran, aún estarían disponibles “en otro lugar en Internet o en el ecosistema de las redes sociales”, y eso deja de lado el contexto. En cambio, la compañía sostiene que es mejor etiquetar tales falsificaciones como falsas. En el caso del video de Pelosi, esto es probablemente lo que se haría si saliera hoy.

      Una audiencia en casa sobre Deepfakes

      La Dra. Joan Donovan, directora de investigación del Proyecto de Tecnología y Cambio Social del Centro Shorenstein de Harvard sobre Medios, Política y Políticas Públicas, dijo durante la audiencia del comité de la Cámara de Representantes que cree que el uso de tecnología descentralizada, como blockchain, podría ser útil para identificar usuarios que han creado los videos originales de deepfake que terminan apareciendo en las redes sociales.

      Bickert, mientras tanto, dijo que Facebook ya “verifica la identidad de esos anunciantes” que publican anuncios en el sitio de redes sociales, lo que parece implicar que no hay necesidad de más intervención. Facebook también mantiene una biblioteca completa de esos anuncios y quién es responsable de ellos, agregó Bickert.

      El congresista Jerry McNerney, quien representa el noveno distrito de California, le preguntó a Bickert si el proceso de verificación de hechos de Facebook se lleva a cabo lo suficientemente rápido como para evitar la propagación de videos virales, a lo que ella respondió que los informes de usuarios de deepfakes permiten que el proceso de eliminación ocurra rápidamente. Sin embargo, eludió la pregunta de McNerney cuando él le preguntó si Facebook estaría dispuesto a someterse a una auditoría de terceros sobre sus prácticas para difundir o prevenir información errónea antes del 1 de junio de este año.

      “Creemos que la transparencia es importante”, respondió Bickert, y agregó que la compañía estaría feliz de hacer un seguimiento con el comité sobre inquietudes específicas, pero no abordó la posibilidad de una auditoría.

      Mientras tanto, otros miembros del comité están trabajando en un proyecto de ley que podría obligar a Facebook a repensar la forma en que maneja las falsificaciones profundas y otras formas de información errónea.

      La representante Yvette Diane Clarke, del noveno distrito del Congreso de Nueva York, ha propuesto un nuevo proyecto de ley falso que obligaría a los creadores de contenido a etiquetar su contenido como tal si quieren publicarlo en cualquier lugar en línea.

      Donovan dijo que esto podría ayudar a las plataformas de contenido a evitar que la información errónea se vuelva viral. Ella llama a esto moderación de contenido “proactivo”.


Source link