Inteligencia Artificial

Facebook está haciendo sus propios deepfakes y ofrece premios por detectarlos

La manipulación de imágenes y videos impulsada por el aprendizaje profundo, o los llamados «deepfakes», representan una faceta extraña y aterradora de un nuevo campo prometedor. Si vamos a tomar medidas enérgicas contra estas espeluznantes creaciones, tendremos que combatir el fuego con fuego; Facebook, Microsoft y muchos otros se están uniendo para ayudar a que el aprendizaje automático sea capaz de detectar falsificaciones profundas, y quieren que los ayudes.

Aunque el fenómeno es todavía nuevo, nos encontramos en una carrera armamentista en la que los métodos de detección compiten con los métodos de creación. Falsificaciones cada vez más convincentes aparecen regularmente, y aunque con frecuencia son benignas, la posibilidad de que tu rostro se injerte sin problemas en una posición comprometedora está muy presente, y muchas celebridades ya se lo han hecho.

Facebook, como parte de una coalición con Microsoft, Partnership for AI y varias universidades, incluidas Oxford, Berkeley y MIT, está trabajando para potenciar el lado bueno con mejores técnicas de detección.

“Los avances más interesantes en IA han ocurrido cuando hay un punto de referencia claro en un conjunto de datos para escribir documentos”, dijo el CTO de Facebook, Mike Schroepfer, en una llamada a los medios ayer. El conjunto de datos para el reconocimiento de objetos podría ser de millones de imágenes de objetos ordinarios, mientras que el conjunto de datos para la transcripción de voz serían horas de diferentes tipos de habla. Pero no existe tal conjunto para deepfakes.

Hablamos sobre este desafío en nuestro evento de Robótica e IA a principios de este año en lo que pensé que era una discusión muy interesante:

Afortunadamente, Facebook planea dedicar alrededor de $ 10 millones en recursos para hacer realidad este desafío de detección de Deepfake.

“La creación de estos conjuntos de datos puede ser un desafío, porque desea asegurarse de que todos los que participan en ellos sean claros y den su consentimiento para que no se sorprendan por el uso de los mismos”, continuó Schroepfer. Y dado que la mayoría de los deepfakes se realizan sin ningún tipo de consentimiento, en realidad no están permitidos para su uso en un contexto académico.

Por lo tanto, Facebook y sus socios están creando contenido falso de la nada, dijo. “Desea un conjunto de datos de video de origen y luego un conjunto de datos de personalidades que pueda asignar a eso. Luego, dedicamos tiempo de ingeniería a implementar las últimas técnicas de falsificación profunda más avanzadas para generar videos alterados como parte del conjunto de datos”.

Y aunque está completamente justificado que se lo pregunte, no, no están usando datos de Facebook para hacer esto. Tienen actores pagados.

Este conjunto de datos se proporcionará a las partes interesadas, quienes podrán crear soluciones y probarlas, colocando los resultados en una tabla de clasificación. En algún momento se entregarán premios en efectivo, aunque los detalles aún están lejos. Con suerte, esto estimulará una seria competencia entre académicos e investigadores.

«Necesitamos la plena participación de la comunidad investigadora en un entorno abierto para desarrollar métodos y sistemas que puedan detectar y mitigar los efectos nocivos de los multimedia manipulados», dijo Rama Chellappa de la Universidad de Maryland. en un comunicado de prensa. “Al poner a disposición un gran corpus de medios genuinos y manipulados, el desafío propuesto entusiasmará y permitirá que la comunidad de investigadores aborde colectivamente esta crisis que se avecina”.

Las pruebas iniciales del conjunto de datos están planificadas para la Conferencia Internacional sobre Visión por Computador en octubre, y el lanzamiento completo tendrá lugar en NeurIPS en diciembre.


Source link

Looks like you have blocked notifications!

Neto

Soy Neto, creador de LaNetaNeta.com Me apasiona leer y aprender, disfruto escribir y compartir publicaciones interesantes con el publico.

¿Ya viste esto?

Botón volver arriba