Si ha estado cerca de las interwebs recientemente, habrá oído hablar de DALL-E y MidJourney. Los tipos de arte que pueden generar las redes neuronales, y con una comprensión más profunda de las fortalezas y debilidades de la tecnología, significa que nos enfrentamos a un mundo completamente nuevo de dolor. A menudo, el blanco de bromas de mal gusto (¿Cómo llamas la atención de un mesero? Grita “¡Oye, artista!?”), El arte generado por computadora es otro punto clave en la narrativa de “nos quitaron el trabajo” de humano versus máquina.
Para mí, la parte interesante de esto es que los robots y las máquinas que realizan ciertos trabajos han sido aceptados a regañadientes, porque los trabajos son repetitivos, aburridos, peligrosos o, en general, horribles. Las máquinas que sueldan chasis de automóviles hacen un trabajo mucho mejor, más rápido y más seguro que los humanos. El arte, sin embargo, es otra cosa.
Al igual que con toda la tecnología, habrá un momento en el que ya no confíes en tus propios ojos u oídos; las máquinas van a aprender y evolucionar a una velocidad vertiginosa.
En la película reciente “Elvis”, Baz Luhrmann pone una cita en boca del Coronel Tom Parker, diciendo que un gran acto “le da a la audiencia sentimientos que no estaban seguros de que deberían disfrutar”. Para mí, esa es una de las mejores citas que he escuchado sobre el arte en mucho tiempo.
El arte comercial no es nada nuevo; ya sea que su mente vaya a las películas de Pixar, la música o las impresiones que vienen con los marcos en Ikea, el arte se ha vendido a gran escala durante mucho tiempo. Pero lo que, en general, tiene en común es que fue creado por humanos que tenían una especie de visión creativa.
La imagen en la parte superior de este artículo se generó usando MidJourney, mientras alimentaba al algoritmo con un aviso ligeramente ridículo: Un hombre baila como si el Prozac fuera una nube de risas. Como alguien que ha tenido toda una vida de problemas de salud mental, que incluyen depresión y ansiedad algo severas, tenía curiosidad por saber qué se le ocurriría a una máquina. Y, Dios mío; ninguno de estos gráficos generados es algo que se me hubiera ocurrido conceptualmente. Pero, no voy a mentir, me hicieron algo. Me siento representado más gráficamente por estas obras de arte generadas por máquinas que casi cualquier otra cosa que haya visto. Y lo salvaje es que lo hice. Estas ilustraciones no fueron dibujadas ni conceptualizadas por mí. Todo lo que hice fue escribir un mensaje extraño en Discord, pero estas imágenes no habrían existido si no hubiera sido por mi idea descabellada. No solo apareció la imagen en la parte superior de este artículo, sino que escupió cuatro ilustraciones completamente diferentes, y extrañamente perfectas, de un concepto que es difícil de entender:
Es difícil poner en palabras exactamente lo que eso significa para los ilustradores conceptuales de todo el mundo. Cuando alguien puede, con solo hacer clic en un botón, generar obras de arte de cualquier cosa, emular cualquier estilo, crear prácticamente cualquier cosa que se te ocurra, en minutos, ¿qué significa ser un artista?
Durante la última semana más o menos, es posible que me haya excedido un poco, generando cientos y cientos de imágenes de Batman. ¿Por qué Batman? No tengo idea, pero quería un tema que me ayudara a comparar los diversos estilos que MidJourney puede crear. Si realmente quieres profundizar en la madriguera del conejo, echa un vistazo IA Dark Knight Rises en Twitter, donde comparto algunas de las piezas mejor generadas que he encontrado. Hay cientos y cientos de candidatos, pero aquí hay una selección que muestra la variedad de estilos disponibles:
Generar todo lo anterior, y cientos más, solo tenía tres cuellos de botella: la cantidad de dinero que estaba dispuesto a gastar en mi suscripción MidJourney, la profundidad de la creatividad que podía generar para las indicaciones y el hecho de que solo podía generar 10 diseños concurrentes.
Ahora, tengo una mente visual, pero no hay un hueso artístico en mi cuerpo. Pero no necesito uno. Se me ocurre un aviso, por ejemplo, Batman y Dwight Schrute están en una pelea a puñetazos – y el algoritmo escupe cuatro versiones de algo. A partir de ahí, puedo volver a rodar (es decir, generar cuatro imágenes nuevas desde el mismo indicador), generar una versión de alta resolución de una de las imágenes o iterar en función de una de las versiones.
Batman y Dwight Schrute están en una pelea a puñetazos. Porque… bueno, por qué no. Créditos de imagen: Haje Kamps (se abre en una ventana nueva) / MidJourney (se abre en una ventana nueva)
La única deficiencia real del algoritmo es que favorece el enfoque de “tomarás lo que te den”. Por supuesto, puede obtener mucho más detalles con sus indicaciones para obtener mucho más control de la imagen final, tanto en términos de lo que sucede en la imagen, el estilo y otros parámetros. Si eres un director visual como yo, el algoritmo a menudo es frustrante porque mi visión creativa es difícil de capturar en palabras, y aún más difícil de interpretar y renderizar para la IA. Pero lo aterrador (para los artistas) y lo emocionante (para los no artistas) es que estamos en la infancia de esta tecnología, y vamos a tener mucho más control sobre cómo se generan las imágenes.
Por ejemplo, probé el siguiente mensaje: Batman (a la izquierda) y Dwight Schrute (a la derecha) se pelean a puñetazos en un estacionamiento en Scranton, Pensilvania. Iluminación dramática. Foto realista. Monocromo. Alto detalle. Si le hubiera dado ese aviso a un humano, espero que me digan que me vaya a la mierda por hablarles como si fueran una máquina, pero si tuvieran que crear un dibujo, sospecho que los humanos podrían interpretar eso. de una manera que tenga sentido conceptual. Lo intenté un montón de intentos, pero no había muchas ilustraciones que me hicieran pensar “sí, esto es lo que estaba buscando”.
¿Qué pasa con los derechos de autor?
Hay otra peculiaridad interesante aquí; muchos de los estilos son reconocibles y algunas de las caras también son reconocibles. Tome este, por ejemplo, donde le estoy pidiendo a la IA que imagine a Batman como Hugh Laurie. No sé tú, pero estoy muy impresionado; tiene el estilo de Batman, y Laurie es reconocible en el dibujo. Sin embargo, lo que no tengo forma de saber es si la IA estafó a otro artista al por mayor, y no me encantaría ser MidJourney o TechCrunch en un tribunal tratando de explicar cómo salió todo mal.
Hugh Laurie como Batman Créditos de imagen: Medio viaje con un aviso de Haje Camps debajo de Licencia BY-NC-40.
Este tipo de problema surge en el mundo del arte con más frecuencia de lo que piensas. Un ejemplo es el caso de Shepard Fairey, en el que el artista supuestamente basó su famoso cartel “Esperanza” de Barack Obama en una fotografía de un fotógrafo independiente de AP, Mannie García. Todo se convirtió en un desastre fantástico, especialmente cuando un grupo de otros artistas comenzaron a crear arte con el mismo estilo. Ahora, tenemos un sándwich de plagio de varias capas, donde Fairey supuestamente está plagiando a otra persona y siendo plagiado a su vez. Y, por supuesto, es posible generar AI-art al estilo de Fairey, lo que complica las cosas infinitamente más. No pude resistirme a darle una vuelta: Batman al estilo Shepard Fairey con el texto HOPE en la parte inferior.
EL ESPERA. Un gran ejemplo de cómo la IA puede acercarse, pero no puro, con la visión específica que tuve para esta imagen. Y, sin embargo, el estilo es lo suficientemente cercano al de Fairey que es reconocible. Créditos de imagen: Haje Kamps (se abre en una ventana nueva) / MidJourney (se abre en una ventana nueva)
Kyle tiene muchas más ideas sobre dónde se encuentra el futuro legal de esta tecnología:
Entonces, ¿dónde deja eso a los artistas?
Creo que lo más aterrador de este desarrollo es que hemos pasado muy rápidamente de un mundo en el que las hazañas creativas como la fotografía, la pintura y la escritura estaban a salvo de las máquinas, a un mundo en el que eso ya no es tan cierto como antes. Pero, como con toda la tecnología, muy pronto llegará un momento en el que ya no podrá confiar en sus propios ojos u oídos; las máquinas van a aprender y evolucionar a una velocidad vertiginosa.
Por supuesto, no todo es pesimismo; si fuera un artista gráfico, comenzaría a usar las herramientas de última generación para inspirarme. La cantidad de veces que me sorprendió lo bien que salió algo, y luego pensé, “pero desearía que fuera un poco más [insert creative vision here]” — si tuviera las habilidades de diseño gráfico, podría tomar lo que tengo y convertirlo en algo más cercano a mi visión.
Puede que eso no sea tan común en el mundo del arte, pero en el diseño de productos, estas tecnologías existen desde hace mucho tiempo. Para las PCB, las máquinas han estado creando las primeras versiones del diseño de trazas durante muchos años, a menudo para que los ingenieros las modifiquen, por supuesto. Lo mismo es cierto para el diseño de productos; Ya hace cinco años, Autodesk estaba mostrando su destreza en el diseño generativo:
Es un mundo nuevo y valiente para cada trabajo (incluido el mío: tuve una IA que escribió la mayor parte de una historia de TechCrunch el año pasado) a medida que las redes neuronales se vuelven cada vez más inteligentes y conjuntos de datos cada vez más completos con los que trabajar.
Permítanme cerrar esta imagen extremadamente perturbadora, donde varias de las personas que la IA colocó en la imagen son reconocibles para mí y otros miembros del personal de TechCrunch:
“Una foto grupal del personal de TechCrunch Disrupt con confeti”. Créditos de imagen: Medio viaje con un aviso de Haje Camps debajo de Licencia BY-NC-40
Las imágenes de MidJourney utilizadas en esta publicación tienen licencia bajo Licencias de atribución no comercial Creative Commons. Usado con permiso explícito del equipo de MidJourney.