El 'desafío de detección de falsificaciones profundas' de Facebook arroja resultados iniciales prometedores

El ‘desafío de detección de falsificaciones profundas’ de Facebook arroja resultados iniciales prometedores

Los videos de intercambio de rostros digitales conocidos como deepfakes no van a ninguna parte, pero si las plataformas quieren poder vigilarlos, deben encontrarlos primero. Hacerlo fue el objeto del “Desafío de detección de falsificaciones profundas” de Facebook, lanzado el año pasado. Después de meses de competencia, surgieron los ganadores y son… mejor que adivinar. ¡Es un comienzo!

Desde su aparición en el último año o dos, los deepfakes han pasado de ser un juguete de nicho creado para conferencias de IA a un software de fácil descarga que cualquiera puede usar para crear videos falsos convincentes de figuras públicas.

“He descargado generadores de deepfake en los que simplemente haces doble clic y se ejecutan en una caja de Windows; no hay nada como eso para la detección”, dijo el CTO de Facebook, Mike Schroepfer, en una llamada con la prensa.

Es probable que este sea el primer año electoral en el que actores maliciosos intenten influir en la conversación política utilizando videos falsos de candidatos generados de esta manera. Dada la posición precaria de Facebook en la opinión pública, les interesa mucho salir al frente de esto.

La competencia comenzó el año pasado con el debut de una nueva base de datos de imágenes falsas. Hasta entonces, los investigadores tenían poco con lo que jugar: un puñado de conjuntos de video manipulado de tamaño mediano, pero nada como los enormes conjuntos de datos utilizados para evaluar y mejorar cosas como los algoritmos de visión por computadora.

Facebook pagó la factura para que 3.500 actores grabaran miles de videos, cada uno de los cuales estaba presente como original y deepfake. También se realizaron un montón de otras modificaciones de “distracción”, para obligar a cualquier algoritmo que espere detectar falsificaciones a prestar atención a la parte importante: la cara, obviamente.

Participaron investigadores de todas partes, que enviaron miles de modelos que intentan decidir si un video es falso o no. Aquí hay seis videos, tres de los cuales son deepfakes. ¿Puedes decir cuál es cuál? (Las respuestas están al final de la publicación).

Créditos de imagen: Facebook

Al principio, estos algoritmos no eran mejores que el azar. Pero después de muchas iteraciones y algunos ajustes inteligentes, lograron alcanzar una precisión de más del 80 % en la identificación de falsificaciones. Desafortunadamente, cuando se implementó en un conjunto reservado de videos que los investigadores no habían recibido, la precisión más alta fue de alrededor del 65 %.

Es mejor que lanzar una moneda al aire, pero no por mucho. Afortunadamente, eso era bastante esperado, y los resultados son realmente muy prometedores. En la investigación de inteligencia artificial, el paso más difícil es pasar de la nada a algo; después de eso, se trata de mejorar cada vez más. Pero descubrir si el problema puede incluso resolverse con IA es un gran paso. Y la competencia parece indicar que se puede.

Ejemplos de un video fuente y múltiples versiones de distractores. Créditos de imagen: Facebook

Una nota importante es que el conjunto de datos creado por Facebook se hizo deliberadamente para ser más representativo e inclusivo que otros, no solo más grande. Después de todo, la IA es tan buena como los datos que contiene, y el sesgo que se encuentra en la IA a menudo se remonta al sesgo en el conjunto de datos.

“Si su conjunto de entrenamiento no tiene la variación adecuada en la apariencia de las personas reales, entonces su modelo no tendrá una comprensión representativa de eso. Creo que hicimos todo lo posible para asegurarnos de que este conjunto de datos fuera bastante representativo”, dijo Schroepfer.

Pregunté si había grupos, tipos de rostros o situaciones que tuvieran menos probabilidades de ser identificados como falsos o reales, pero Schroepfer no estaba seguro. En respuesta a mis preguntas sobre la representación en el conjunto de datos, una declaración del equipo decía:

Al crear el conjunto de datos de DFDC, consideramos muchos factores y era importante que tuviéramos representación en varias dimensiones, incluida la edad, el género y el origen étnico autoidentificados. La tecnología de detección debe funcionar para todos, por lo que era importante que nuestros datos fueran representativos del desafío.

Los modelos ganadores serán de código abierto en un esfuerzo por impulsar al resto de la industria a la acción, pero Facebook está trabajando en su propio producto de detección de falsificación profunda que, según Schropfer, no se compartirá. La naturaleza contradictoria del problema (los malos aprenden de lo que hacen los buenos y ajustan su enfoque, básicamente) significa que decirles a todos exactamente lo que se está haciendo para evitar las falsificaciones profundas puede ser contraproducente.

(Respuestas a la imagen de detección de deepfake: 1, 4 y 6 son reales; 2, 3 y 5 son deepfakes).


Source link