Microsoft lanza una herramienta de detección de falsificación profunda antes de las elecciones estadounidenses

Microsoft se ha sumado a la creciente pila de tecnologías destinadas a detectar medios sintéticos (también conocidos como deepfakes) con el lanzamiento de una herramienta para analizar videos y fotografías para generar una puntuación de manipulación.

La herramienta, llamada Video Authenticator, proporciona lo que Microsoft llama “un porcentaje de probabilidad o puntuación de confianza” de que los medios han sido manipulados artificialmente.

“En el caso de un video, puede proporcionar este porcentaje en tiempo real en cada cuadro a medida que se reproduce el video”, escribe en un entrada en el blog anunciando la tecnología. “Funciona al detectar el límite de fusión de los elementos de escala de grises o desvanecimiento sutil y falso profundo que podrían no ser detectables por el ojo humano”.

Si una pieza de contenido en línea parece real pero ‘huele’ mal, es probable que se trate de una manipulación de alta tecnología que intenta hacerse pasar por real, tal vez con la intención maliciosa de desinformar a las personas.

Y aunque muchos deepfakes se crean con una intención muy diferente, para ser divertidos o entretenidos, sacados de contexto, estos medios sintéticos aún pueden cobrar vida propia a medida que se propagan, lo que significa que también pueden terminar engañando a los espectadores desprevenidos.

Si bien la tecnología de IA se usa para generar falsificaciones profundas realistas, identificar la desinformación visual usando la tecnología sigue siendo un problema difícil, y una mente de pensamiento crítico sigue siendo la mejor herramienta para detectar BS de alta tecnología.

No obstante, los tecnólogos continúan trabajando en detectores de falsificaciones profundas, incluida esta última oferta de Microsoft.

Aunque su publicación de blog advierte que la tecnología puede ofrecer solo una utilidad pasajera en la carrera armamentista de desinformación alimentada por IA: “El hecho de que [deepfakes are] generada por la IA que puede seguir aprendiendo hace que sea inevitable que superen la tecnología de detección convencional. Sin embargo, a corto plazo, como las próximas elecciones estadounidenses, las tecnologías de detección avanzadas pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar las falsificaciones profundas”.

Este verano, una competencia iniciada por Facebook para desarrollar un detector de falsificación profunda arrojó resultados mejores que adivinar, pero solo en el caso de un conjunto de datos al que los investigadores no habían tenido acceso previo.

Mientras tanto, Microsoft dice que su herramienta Video Authenticator se creó utilizando un conjunto de datos público de Rostro forense++ y probado en el Conjunto de datos del desafío de detección de DeepFakeque señala que son “ambos modelos líderes para entrenar y probar tecnologías de detección de falsificación profunda”.

Se está asociando con la empresa con sede en San Francisco Fundación IA para poner la herramienta a disposición de las organizaciones involucradas en el proceso democrático este año, incluidos los medios de comunicación y las campañas políticas.

“Video Authenticator inicialmente estará disponible solo a través de RD2020 [Reality Defender 2020], que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección de falsificaciones profundas. Campañas y periodistas interesados ​​en saber más pueden contactar con RD2020 aquí”, agrega Microsoft.

La herramienta ha sido desarrollada por su división de I+D, Microsoft Research, en coordinación con su equipo de IA Responsable y un organismo asesor interno sobre IA, Ética y Efectos en el Comité de Ingeniería e Investigación, como parte de un programa más amplio que Microsoft está ejecutando para defender la democracia. de las amenazas planteadas por la desinformación.

“Esperamos que los métodos para generar medios sintéticos continúen creciendo en sofisticación”, continúa. “Como todos los métodos de detección de IA tienen tasas de falla, debemos comprender y estar preparados para responder a las falsificaciones profundas que se cuelan a través de los métodos de detección. Por lo tanto, a más largo plazo, debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios. Hay pocas herramientas hoy en día para ayudar a asegurar a los lectores que los medios que están viendo en línea provienen de una fuente confiable y que no fueron alterados”.

En el último frente, Microsoft también ha anunciado un sistema que permitirá a los productores de contenido agregar hash y certificados digitales a los medios que permanecen en sus metadatos a medida que el contenido viaja en línea, proporcionando un punto de referencia para la autenticidad.

El segundo componente del sistema es una herramienta de lectura, que se puede implementar como una extensión del navegador, para verificar certificados y hacer coincidir los hashes para ofrecer al espectador lo que Microsoft llama “un alto grado de precisión” de que un contenido en particular es auténtico. no ha sido cambiado.

La certificación también proporcionará al espectador detalles sobre quién produjo los medios.

Microsoft espera que este sistema de autenticidad de marca de agua digital termine respaldando una Iniciativa de noticias confiables anunciado el año pasado por la emisora ​​financiada con fondos públicos del Reino Unido, la BBC, específicamente para un componente de verificación, llamado Project Origin, que está dirigido por una coalición de la BBC, CBC/Radio-Canada, Microsoft y The New York Times.

Dice que Project Origin probará la tecnología de marca de agua digital con el objetivo de convertirla en un estándar que pueda adoptarse ampliamente.

“Él Iniciativa de noticias confiables, que incluye una variedad de editores y empresas de redes sociales, también acordó participar con esta tecnología. En los próximos meses, esperamos ampliar el trabajo en esta área a más empresas de tecnología, editores de noticias y empresas de redes sociales”, agrega Microsoft.

Si bien continúa el trabajo en tecnologías para identificar deepfakes, su publicación de blog también enfatiza la importancia de la alfabetización mediática, señalando una asociación con la Universidad de Washington, sensibilidad y USA Today tenía como objetivo impulsar el pensamiento crítico antes de las elecciones estadounidenses.

Esta asociación ha puesto en marcha una Encuentra el cuestionario Deepfake para que los votantes en los EE. UU. “aprendan sobre los medios sintéticos, desarrollen habilidades críticas de alfabetización mediática y adquieran conciencia sobre el impacto de los medios sintéticos en la democracia”, como dice.

El cuestionario interactivo se distribuirá en las propiedades web y de redes sociales propiedad de USA Today, Microsoft y la Universidad de Washington y a través de publicidad en las redes sociales, según la publicación del blog.

El gigante tecnológico también señala que está apoyando una campaña de anuncio de servicio público (PSA) en los EE. UU. que alienta a las personas a tomar una “pausa para reflexionar” y verificar que la información provenga de una organización de noticias confiable antes de compartirla o promocionarla en las redes sociales. de las próximas elecciones.

“La campaña de PSA ayudará a las personas a comprender mejor el daño que la información errónea y la desinformación tienen en nuestra democracia y la importancia de tomarse el tiempo para identificar, compartir y consumir información confiable. Los anuncios se transmitirán en las estaciones de radio de los Estados Unidos en septiembre y octubre”, agrega.


Source link