{"id":1092266,"date":"2024-04-16T04:04:47","date_gmt":"2024-04-16T04:04:47","guid":{"rendered":"https:\/\/magazineoffice.com\/adobe-tambien-esta-trabajando-en-video-generativo\/"},"modified":"2024-04-16T04:04:50","modified_gmt":"2024-04-16T04:04:50","slug":"adobe-tambien-esta-trabajando-en-video-generativo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/adobe-tambien-esta-trabajando-en-video-generativo\/","title":{"rendered":"Adobe tambi\u00e9n est\u00e1 trabajando en v\u00eddeo generativo"},"content":{"rendered":"


\n<\/p>\n

\n

Adobe dice que est\u00e1 construyendo un modelo de inteligencia artificial para generar videos. Pero no revela cu\u00e1ndo se lanzar\u00e1 exactamente este modelo, ni mucho sobre \u00e9l adem\u00e1s del hecho de que existe.<\/p>\n

Ofrecido como una especie de respuesta a Sora de OpenAI, Imagen 2 de Google y modelos del creciente n\u00famero de nuevas empresas en el naciente espacio de video de IA generativa, el modelo de Adobe, una parte de la creciente familia Firefly de productos de IA generativa de la compa\u00f1\u00eda, se abrir\u00e1 paso en Premiere Pro, la suite de edici\u00f3n de video insignia de Adobe, llegar\u00e1 a finales de este a\u00f1o, dice Adobe.<\/p>\n

Como muchas herramientas de video de IA generativa actuales, el modelo de Adobe crea im\u00e1genes desde cero (ya sea un mensaje o im\u00e1genes de referencia) y potencia tres nuevas caracter\u00edsticas en Premiere Pro: adici\u00f3n de objetos, eliminaci\u00f3n de objetos y extensi\u00f3n generativa.<\/p>\n

Se explican por s\u00ed solos.<\/p>\n

La adici\u00f3n de objetos permite a los usuarios seleccionar un segmento de un clip de v\u00eddeo (por ejemplo, el tercio superior o la esquina inferior izquierda) e ingresar un mensaje para insertar objetos dentro de ese segmento. En una sesi\u00f3n informativa con TechCrunch, un portavoz de Adobe mostr\u00f3 una imagen fija de un malet\u00edn del mundo real lleno de diamantes generado por el modelo de Adobe.<\/p>\n

\n

Cr\u00e9ditos de imagen:<\/strong> Diamantes generados por IA, cortes\u00eda de Adobe.<\/p>\n<\/div>\n

La eliminaci\u00f3n de objetos elimina objetos de los clips, como micr\u00f3fonos boom o tazas de caf\u00e9 en el fondo de una toma.<\/p>\n

\"IA<\/p>\n

Eliminaci\u00f3n de objetos con IA. Observe que los resultados no son del todo perfectos. Cr\u00e9ditos de imagen:<\/strong> Adobe<\/p>\n<\/div>\n

En cuanto a la extensi\u00f3n generativa, agrega algunos fotogramas al principio o al final de un clip (desafortunadamente, Adobe no dijo cu\u00e1ntos fotogramas). La extensi\u00f3n generativa no pretende crear escenas completas, sino m\u00e1s bien agregar fotogramas intermedios para sincronizarlos con una banda sonora o conservar una toma para darle un ritmo adicional, por ejemplo, para agregar peso emocional.<\/p>\n

\"IA<\/p>\n

Cr\u00e9ditos de imagen:<\/strong> Adobe<\/p>\n<\/div>\n

Para abordar el miedo a los deepfakes que inevitablemente surge en torno a herramientas de inteligencia artificial generativa como estas, Adobe dice que traer\u00e1 credenciales de contenido (metadatos para identificar medios generados por inteligencia artificial) a Premiere. Las credenciales de contenido, un est\u00e1ndar de procedencia de medios que Adobe respalda a trav\u00e9s de su Iniciativa de Autenticidad de Contenido, ya estaban en Photoshop y eran un componente de los modelos Firefly de generaci\u00f3n de im\u00e1genes de Adobe. En Premiere, indicar\u00e1n no solo qu\u00e9 contenido fue generado por IA sino tambi\u00e9n qu\u00e9 modelo de IA se utiliz\u00f3 para generarlo.<\/p>\n

Le pregunt\u00e9 a Adobe qu\u00e9 datos (im\u00e1genes, videos, etc.) se utilizaron para entrenar el modelo. La compa\u00f1\u00eda no dijo ni dijo c\u00f3mo (o si) est\u00e1 compensando a los contribuyentes al conjunto de datos.<\/p>\n

La semana pasada, Bloomberg, citando fuentes familiarizadas con el asunto, inform\u00f3 que Adobe paga a fot\u00f3grafos y artistas en su plataforma de medios de stock, Adobe Stock, hasta 120 d\u00f3lares por enviar clips de v\u00eddeo cortos para entrenar su modelo de generaci\u00f3n de v\u00eddeo. Se dice que el pago oscila entre unos 2,62 d\u00f3lares por minuto de v\u00eddeo y unos 7,25 d\u00f3lares por minuto, dependiendo de la presentaci\u00f3n, y las im\u00e1genes de mayor calidad exigen tarifas correspondientemente m\u00e1s altas.<\/p>\n

Eso ser\u00eda una desviaci\u00f3n del acuerdo actual de Adobe con los artistas y fot\u00f3grafos de Adobe Stock cuyo trabajo est\u00e1 utilizando para entrenar sus modelos de generaci\u00f3n de im\u00e1genes. La compa\u00f1\u00eda paga a esos contribuyentes una bonificaci\u00f3n anual, no una tarifa \u00fanica, dependiendo del volumen de contenido que tienen en stock y c\u00f3mo se utiliza, aunque es una bonificaci\u00f3n sujeta a una f\u00f3rmula opaca y no garantizada de a\u00f1o en a\u00f1o.<\/p>\n

Los informes de Bloomberg, si son precisos, representan un enfoque en marcado contraste con el de rivales de video de IA generativa como OpenAI, que se dice que ha extra\u00eddo datos web disponibles p\u00fablicamente, incluidos videos de YouTube, para entrenar sus modelos. El director ejecutivo de YouTube, Neal Mohan, dijo recientemente que el uso de videos de YouTube para entrenar el generador de texto a video de OpenAI ser\u00eda una infracci\u00f3n de los t\u00e9rminos de servicio de la plataforma, destacando la debilidad legal del argumento de uso justo de OpenAI y otros.<\/p>\n

Las empresas, incluida OpenAI, est\u00e1n siendo demandadas por acusaciones de que est\u00e1n violando la ley de propiedad intelectual al entrenar su IA en contenido protegido por derechos de autor sin proporcionar cr\u00e9dito ni pagar a los propietarios. Adobe parece tener la intenci\u00f3n de evitar este fin, como su competencia en alg\u00fan momento generativa de IA, Shutterstock y Getty Images (que tambi\u00e9n tienen acuerdos para licenciar datos de entrenamiento de modelos) y, con su pol\u00edtica de indemnizaci\u00f3n de propiedad intelectual, posicionarse como una opci\u00f3n verificablemente \u201csegura\u201d para clientes empresariales.<\/p>\n

En cuanto al pago, Adobe no dice cu\u00e1nto les costar\u00e1 a los clientes utilizar las pr\u00f3ximas funciones de generaci\u00f3n de video en Premiere; presumiblemente, todav\u00eda se est\u00e1n debatiendo los precios. pero la empresa hizo<\/em> revelan que el esquema de pago seguir\u00e1 el sistema de cr\u00e9ditos generativos establecido con sus primeros modelos Firefly.<\/p>\n

Para los clientes con una suscripci\u00f3n paga a Adobe Creative Cloud, los cr\u00e9ditos generativos se renuevan a partir de cada mes, con asignaciones que van de 25 a 1000 por mes, seg\u00fan el plan. Las cargas de trabajo m\u00e1s complejas (por ejemplo, im\u00e1genes generadas con mayor resoluci\u00f3n o generaciones de im\u00e1genes m\u00faltiples) requieren m\u00e1s cr\u00e9ditos, como regla general.<\/p>\n

La gran pregunta que tengo en mente es: \u00bflas funciones de video impulsadas por IA de Adobe ser\u00e1n valer<\/em> \u00bfLo que terminen costando?<\/p>\n

Los modelos de generaci\u00f3n de im\u00e1genes de Firefly hasta ahora han sido ampliamente ridiculizados por ser decepcionantes y defectuosos en comparaci\u00f3n con Midjourney, DALL-E 3 de OpenAI y otras herramientas de la competencia. La falta de un plazo de lanzamiento en el modelo de video no infunde mucha confianza de que evitar\u00e1 el mismo destino. Tampoco lo hace el hecho de que Adobe se neg\u00f3 a mostrarme demostraciones en vivo de adici\u00f3n y eliminaci\u00f3n de objetos y extensi\u00f3n generativa, insistiendo en cambio en un video pregrabado.<\/p>\n

Quiz\u00e1s para cubrir sus apuestas, Adobe dice que est\u00e1 en conversaciones con proveedores externos sobre la integraci\u00f3n de sus modelos de generaci\u00f3n de video en Premiere, as\u00ed como para potenciar herramientas como la extensi\u00f3n generativa y m\u00e1s.<\/p>\n

Uno de esos proveedores es OpenAI.<\/p>\n

Adobe dice que est\u00e1 colaborando con OpenAI para encontrar formas de incorporar a Sora al flujo de trabajo de Premiere. (Una asociaci\u00f3n con OpenAI tiene sentido dadas las recientes propuestas de la startup de IA hacia Hollywood; es revelador que la CTO de OpenAI, Mira Murati, asistir\u00e1 al Festival de Cine de Cannes este a\u00f1o). Otros socios iniciales incluyen a Pika, una startup que crea herramientas de IA para generar y editar videos. y Runway, que fue uno de los primeros proveedores del mercado con un modelo de v\u00eddeo generativo.<\/p>\n

Un portavoz de Adobe dijo que la empresa estar\u00eda abierta a trabajar con otros en el futuro.<\/p>\n

Ahora bien, para ser muy claro, estas integraciones son m\u00e1s un experimento mental que un producto funcional en la actualidad. Adobe me recalc\u00f3 repetidamente que est\u00e1n en una \u201cvista previa inicial\u201d y en una \u201cinvestigaci\u00f3n\u201d en lugar de algo con lo que los clientes puedan esperar jugar en el corto plazo.<\/p>\n

Y eso, dir\u00eda yo, captura el tono general del prensador de video generativo de Adobe.<\/p>\n

Adobe claramente est\u00e1 tratando de se\u00f1alar con estos anuncios que est\u00e1 pensando en video generativo, aunque s\u00f3lo sea en el sentido preliminar. Ser\u00eda una tonter\u00eda no hacerlo: quedar atrapado desprevenido en la carrera generativa de la IA es correr el riesgo de perder una nueva y valiosa fuente de ingresos potencial, suponiendo que la econom\u00eda finalmente funcione a favor de Adobe. (Despu\u00e9s de todo, los modelos de IA son costosos de entrenar, ejecutar y servir).<\/p>\n

Pero, francamente, lo que muestra (conceptos) no es muy convincente. Con Sora en libertad y seguramente m\u00e1s innovaciones en camino, la compa\u00f1\u00eda tiene mucho que demostrar.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Adobe dice que est\u00e1 construyendo un modelo de inteligencia artificial para generar videos. Pero no revela cu\u00e1ndo se lanzar\u00e1 exactamente este modelo, ni mucho sobre \u00e9l adem\u00e1s del hecho de…<\/p>\n","protected":false},"author":1,"featured_media":862011,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[25863,148,62291,1583,752,542],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092266"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1092266"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092266\/revisions"}],"predecessor-version":[{"id":1092267,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092266\/revisions\/1092267"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/862011"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1092266"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1092266"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1092266"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}