Photoshop está recibiendo una infusión de IA generativa hoy con la adición de una serie de características basadas en Firefly que permitirán a los usuarios extender imágenes más allá de sus bordes con fondos generados por Firefly, usar IA generativa para agregar objetos a las imágenes y usar un nuevo relleno generativo. función para eliminar objetos con mucha más precisión que el relleno basado en el contenido disponible anteriormente.
Por ahora, estas funciones solo estarán disponibles en la versión beta de Photoshop. Adobe también está poniendo algunas de estas capacidades a disposición de los usuarios beta de Firefly en la web (los usuarios de Firefly, por cierto, ahora han creado más de 100 millones de imágenes en el servicio).
Créditos de imagen: Adobe
Lo bueno aquí es que esta integración permite a los usuarios de Photoshop usar indicaciones de texto en lenguaje natural para describir el tipo de imagen u objeto que quieren que Firefly cree. Al igual que con todas las herramientas de IA generativa, los resultados pueden ser ocasionalmente algo impredecibles. De forma predeterminada, Adobe proporcionará a los usuarios tres variaciones para cada mensaje, aunque a diferencia de la aplicación web Firefly, actualmente no hay opción para iterar en uno de estos para ver variaciones similares en un resultado determinado.
Para hacer todo esto, Photoshop envía partes de una imagen determinada a Firefly (no la imagen completa, aunque la empresa también está experimentando con eso) y crea una nueva capa para los resultados.
Maria Yap, vicepresidenta de Digital Imaging de Adobe, me dio una demostración de estas nuevas funciones antes del anuncio de hoy. Al igual que con todas las cosas relacionadas con la IA generativa, a menudo es difícil predecir qué devolverá el modelo, pero algunos de los resultados fueron sorprendentemente buenos. Por ejemplo, cuando se le pidió que generara un charco debajo de un corgi corriendo, Firefly pareció tener en cuenta la iluminación general de la imagen, incluso generando un reflejo realista. No todos los resultados funcionaron tan bien (un charco de color púrpura brillante también era una opción), pero el modelo parece hacer un buen trabajo al agregar objetos y especialmente al extender las imágenes existentes más allá de su marco.
Dado que Firefly se entrenó con las fotos disponibles en Adobe Stock (así como con otras imágenes comercialmente seguras), tal vez no sorprenda que funcione especialmente bien con paisajes. Similar a la mayoría de los generadores de imágenes generativas, Firefly tiene problemas con el texto.
Adobe también se aseguró de que el modelo devuelva resultados seguros. Esto se debe en parte al conjunto de entrenamiento utilizado, pero Adobe también ha implementado protecciones adicionales. “Lo casamos con una serie de cosas de ingeniería rápidas que conocemos”, explicó Yap. “Excluimos ciertos términos, ciertas palabras que sentimos que no son seguras. Y luego incluso estamos investigando otra jerarquía de ‘si María selecciona un área que tiene mucha piel’, tal vez ahora mismo, y en realidad verá mensajes de advertencia a veces, no expandiremos un aviso en ese, solo porque es impredecible. Simplemente no queremos ir a un lugar que no nos resulte cómodo”.
Al igual que con todas las imágenes de Firefly, Adobe aplicará automáticamente sus Credenciales de contenido a cualquier imagen que utilice estas funciones basadas en IA.
Muchas de estas características también serían muy útiles en Lightroom. Yap estuvo de acuerdo y, aunque no se comprometió con una línea de tiempo, sí confirmó que la compañía también planea llevar Firefly a su herramienta de administración de fotos.
Source link