Google ha prohibido el entrenamiento de sistemas de IA que pueden usarse para generar deepfakes en su plataforma Google Colaboratory. los actualizado términos de Uso, manchado durante el fin de semana por BleepingComputer, incluye trabajos relacionados con deepfakes en la lista de proyectos no permitidos.
Colaboratory, o Colab para abreviar, surgió de un proyecto interno de Google Research a fines de 2017. Está diseñado para permitir que cualquier persona escriba y ejecute código Python arbitrario a través de un navegador web, particularmente código para aprendizaje automático, educación y análisis de datos. Con este fin, Google proporciona a los usuarios de Colab, tanto gratuitos como de pago, acceso a hardware, incluidas las GPU y las unidades de procesamiento de tensor (TPU) diseñadas a medida y que aceleran la IA de Google.
En los últimos años, Colab se ha convertido en la plataforma de facto para demostraciones dentro de la comunidad de investigación de IA. No es raro que los investigadores que han escrito código incluyan enlaces a páginas de Colab en o junto a los repositorios de GitHub que alojan el código. Pero históricamente, Google no ha sido muy restrictivo en lo que respecta al contenido de Colab, lo que podría abrir la puerta a los actores que deseen utilizar el servicio para fines menos escrupulosos.
Usuarios del generador de deepfake de código abierto DeepFaceLab darse cuenta de los términos de uso cambiaron la semana pasada, cuando varios recibieron un mensaje de error después de intentar ejecutar DeepFaceLab en Colab. La advertencia decía: “Es posible que esté ejecutando un código que no está permitido y esto puede restringir su capacidad para usar Colab en el futuro. Tenga en cuenta las acciones prohibidas especificadas en nuestras preguntas frecuentes”.
No todos los códigos activan la advertencia. Este reportero pudo ejecutar uno de los proyectos de Deepfake Colab más populares sin problema, y Informe de usuarios de Reddit que otro proyecto líder, FaceSwap, sigue siendo completamente funcional. Esto sugiere que la aplicación se basa en una lista negra, en lugar de una palabra clave, y que la comunidad de Colab tendrá la responsabilidad de informar el código que no cumple con la nueva regla.
archivo.org datos muestra que Google actualizó silenciosamente los términos de Colab en algún momento a mediados de mayo. Las restricciones anteriores sobre cosas como ejecutar ataques de denegación de servicio, descifrar contraseñas y descargar torrents se mantuvieron sin cambios.
Los deepfakes vienen en muchas formas, pero una de las más comunes son los videos en los que la cara de una persona se ha pegado de manera convincente sobre otra cara. A diferencia de los toscos trabajos de Photoshop de antaño, los deepfakes generados por IA pueden coincidir con los movimientos corporales, las microexpresiones y los tonos de piel de una persona mejor que el CGI producido por Hollywood en algunos casos.
Deepfakes puede ser inofensivo, incluso entretenido, como innumerables videos virales han demostrado. Pero los piratas informáticos los utilizan cada vez más para atacar a los usuarios de las redes sociales en extorsión y fraude esquemas Más nefastamente, se han aprovechado en la propaganda política, por ejemplo, para crear vídeos del presidente ucraniano Volodymyr Zelenskyy dando un discurso sobre la guerra en Ucrania que en realidad nunca pronunció.
De 2019 a 2021, la cantidad de deepfakes en línea aumentó de aproximadamente 14 000 a 145 000. de acuerdo a a una fuente. Investigación Forrester estimado en octubre de 2019 que las estafas de fraude deepfake costarían $ 250 millones para fines de 2020.
Os Keyes, profesor adjunto de la Universidad de Seattle, aplaudió la decisión de Google de prohibir los proyectos deepfake de Colab. Pero señaló que se debe hacer más en el lado de la política para evitar su creación y propagación.
“La forma en que se ha hecho ciertamente destaca la pobreza de confiar en la autocontrol de las empresas”, dijo Keyes a TechCrunch por correo electrónico. “La generación de deepfakes no debería ser una forma de trabajo aceptable en absoluto, bueno, en ningún lugar, por lo que es bueno que Google no se haga cómplice de eso… Pero la prohibición no ocurre en el vacío, ocurre en un entorno donde real, falta una regulación responsable y receptiva de este tipo de plataformas de desarrollo (y empresas)”.
Otros, en particular aquellos que se beneficiaron del enfoque anterior de laissez faire para la gobernanza de Colab, podrían no estar de acuerdo. Hace años, el laboratorio de investigación de IA OpenAI inicialmente se negó a abrir un modelo de generación de lenguaje, GPT-2, por temor a que se utilizara indebidamente. Esto motivó a grupos como EleutherAI para aprovechar herramientas como Colab para desarrollar y lanzar sus propios modelos de generación de lenguaje, aparentemente para la investigación.
Cuando yo habló a Connor Leahy, miembro de EleutherAI, el año pasado, afirmó que la mercantilización de los modelos de IA es parte de una “tendencia inevitable” en la caída del precio de la producción de “contenido digital convincente” que no se descarrilará independientemente de si se libera el código. En su opinión, los modelos y herramientas de IA deben estar ampliamente disponibles para que los usuarios de “bajos recursos”, especialmente los académicos, puedan acceder a mejores estudios y realizar sus propias investigaciones centradas en la seguridad.
Le hemos preguntado a Google si planea hacer excepciones a la nueva política de deepfake para la investigación. Actualizaremos este artículo si recibimos una respuesta.
Source link