Adobe trae funciones generativas de IA a Photoshop, After Effects y Premiere Pro


El paquete de software de edición de fotos y videos de Adobe ha aprovechado durante mucho tiempo la asistencia de la inteligencia artificial para ayudar a sus usuarios humanos a hacer su trabajo, y ha empleado el sistema Sensei AI durante más de una década para potenciar funciones como Filtros neuronales en Photoshop o Acrobat Modo líquido. El martes, Adobe reveló su próxima generación de funciones de IA, una familia de modelos generativos que la compañía ha denominado colectivamente Firefly, el primero de los cuales generará imágenes y efectos de fuente.

“La IA generativa es la próxima evolución de la creatividad y la productividad impulsadas por la IA, transformando la conversación entre el creador y la computadora en algo más natural, intuitivo y poderoso”, dijo David Wadhwani, presidente de Negocios de Medios Digitales de Adobe, en el comunicado del martes. “Con Firefly, Adobe traerá ‘ingredientes creativos’ basados ​​en IA generativa directamente a los flujos de trabajo de los clientes, aumentando la productividad y la confianza creativa para todos los creadores, desde profesionales creativos de alto nivel hasta la cola larga de la economía del creador”.

Con él, los aspirantes a artistas digitales ya no estarán limitados por su destreza por debajo del par o la falta de talento artístico: podrán hablar con ilustraciones de calidad profesional utilizando solo el poder de sus palabras. Y no se trata solo de texto a imagen: la naturaleza multimodal de Firefly significa que el audio, el video, las ilustraciones y los modelos 3D se pueden generar a través del sistema y suficiente gimnasia verbal.

Según la compañía, el primer modelo de la familia Firefly está entrenado con «cientos de millones» de imágenes del catálogo de fotos de Adobe Stock, contenido con licencia abierta y cosas del dominio público, lo que prácticamente garantiza que el modelo no dará lugar a demandas como StableDiffusion hizo con el disgusto de Getty. También ayuda a garantizar que los fotógrafos y artistas de Stock sean compensados ​​por el uso de sus obras en el entrenamiento de estas IA.

Engadget recibió una breve vista previa del sistema antes del anuncio del martes. La pantalla de entrada, donde los usuarios ingresarán su aviso basado en texto en el sistema, presenta una selección curada de piezas generadas, así como los avisos que los instigaron. Estos sirven para resaltar las capacidades generativas de los modelos e inspirar a otros usuarios a explorar los límites de su creatividad asistida por máquinas.

Una vez que el usuario ingresa su mensaje de texto (en este caso, las relaciones públicas de Adobe utilizaron un adulto parado en una playa con un efecto de doble exposición usando imágenes derivadas de la base de datos de fotos de Adobe), el sistema devolverá alrededor de media docena de sugerencias de imágenes iniciales. A partir de ahí, el usuario puede seleccionar entre estilos y efectos de imagen populares, dictar sus propias ediciones en el indicador, colaborar con la IA y, en general, jugar con el proceso altamente orientable hasta que el sistema escupe lo que está buscando. La calidad de la imagen resultante fue casi fotorrealista, aunque ninguna de las imágenes de la demostración presenta manos, por lo que no pudimos contar los dedos con precisión.

Inicialmente, la base de datos de imágenes capacitadas será la propia biblioteca Stock con licencia de Adobe, aunque la compañía está buscando permitir que los usuarios individuales incorporen también sus propias carteras. Esto debería permitir a los fotógrafos con sus propios estilos establecidos recrear esa estética dentro del modelo para que lo que genera encaje con el motivo existente del usuario. La compañía no proporcionó un cronograma de cuándo podría suceder eso.

El primer modelo también tiene una función de hermano que puede crear efectos de fuente personalizados y generar logotipos de estructura alámbrica basados ​​en garabatos y bocetos escaneados. Todo es genial, pero podría dejar sin trabajo a un número desmesurado de artistas digitales si se apropiara indebidamente. La Iniciativa de Autenticidad de Contenido (CAI) de Adobe busca evitar que eso suceda.

El CAI es el intento de Adobe de establecer algún tipo de reglas básicas en esta nueva industria del Lejano Oeste de Silicon Valley. Es un conjunto de estándares operativos industriales propuestos que establecerían y regirían los comportamientos éticos y la transparencia en el proceso de capacitación en IA. Por ejemplo, el CAI crearía una etiqueta de «no entrenar» que funciona con la misma idea básica que robots.txt. Esa etiqueta sería persistente, permaneciendo con el arte mientras se mueve a través de Internet, alertando a cualquiera que lo encuentre de que fue hecho por una máquina. Hasta el momento, alrededor de 900 entidades en todo el mundo, «incluidas empresas de medios y tecnología, ONG, académicos y otros», según el comunicado, se han suscrito al plan.



Source link-47