Adobe Firefly ahora puede generar imágenes más realistas


En MAX, su conferencia anual para creativos, Adobe anunció hoy que ha actualizado los modelos que impulsan Firefly, su servicio de creación de imágenes con IA generativa. Según Adobe, el modelo Firefly Image 2, como se llama oficialmente, será mejor para representar a los humanos, por ejemplo, incluyendo rasgos faciales, piel, cuerpo y manos (que han molestado durante mucho tiempo a modelos similares).

Adobe también anunció hoy que los usuarios de Firefly han generado tres mil millones de imágenes desde que se lanzó el servicio hace aproximadamente medio año, de los cuales mil millones se generaron solo el mes pasado. La gran mayoría de los usuarios de Firefly (90%) también son nuevos en los productos de Adobe. La mayoría de estos usuarios seguramente utilizan la aplicación web Firefly, lo que ayuda a explicar por qué hace unas semanas la compañía decidió convertir lo que era esencialmente un sitio de demostración de Firefly en un servicio Creative Cloud completo.

Créditos de imagen: Adobe

Alexandru Costin, vicepresidente de IA generativa y Sensei de Adobe, me dijo que el nuevo modelo no solo se entrenó con imágenes más recientes de Adobe Stock y otras fuentes comercialmente seguras, sino que también es significativamente más grande. «Firefly es un conjunto de múltiples modelos y creo que hemos aumentado sus tamaños por un factor de tres», me dijo. «Así que es como un cerebro que es tres veces más grande y que sabrá cómo hacer estas conexiones y generar píxeles más bellos y detalles más bellos para el usuario». La empresa también aumentó el conjunto de datos en casi un factor de dos, lo que a su vez debería darle al modelo una mejor comprensión de lo que piden los usuarios.

Ese modelo más grande obviamente consume más recursos, pero Costin señaló que debería funcionar a la misma velocidad que el primer modelo. “Continuamos nuestras exploraciones e inversiones en destilación, poda, optimización y cuantificación. Hay mucho trabajo por hacer para garantizar que los clientes obtengan una experiencia similar, pero no aumentamos demasiado los costos de la nube”. Sin embargo, en este momento, el enfoque de Adobe está en la calidad por encima de la optimización.

Por ahora, el nuevo modelo estará disponible a través de la aplicación web Firefly, pero también llegará en un futuro próximo a aplicaciones Creative Cloud como Photoshop, donde potencia funciones populares como el relleno generativo. Eso también es algo que Costin enfatizó. La forma en que Adobe piensa acerca de la IA generativa no se trata tanto de la creación de contenido sino de la edición generativa, dijo.

“Lo que hemos visto hacer a nuestros clientes, y es por eso que el relleno generativo de Photoshop tiene tanto éxito, no es generar nuevos activos únicamente, sino tomar activos existentes (una sesión de fotos, una sesión de productos) y luego usar capacidades generativas para mejorar básicamente los existentes. flujos de trabajo. Por eso llamamos nuestro término general para definir generativo como una edición más generativa que solo texto a imagen porque creemos que es más importante para nuestros clientes”.

Con este nuevo modelo, Adobe también presenta algunos controles nuevos en la aplicación web Firefly que ahora permiten a los usuarios establecer la profundidad de campo de sus imágenes, así como el desenfoque de movimiento y la configuración del campo de visión. También es nueva la capacidad de cargar una imagen existente y luego hacer que Firefly coincida con el estilo de esa imagen, así como una nueva función de autocompletar cuando escribes tus indicaciones (que, según Adobe, está optimizada para ayudarte a obtener una mejor imagen). ).



Source link-48