\n<\/aside>\n<\/p>\n
El martes, Stability AI lanz\u00f3 Stable Video Diffusion, una nueva herramienta gratuita de investigaci\u00f3n de IA que puede convertir cualquier imagen fija en un video corto, con resultados mixtos. Es una vista previa de peso abierto de dos modelos de IA que utilizan una t\u00e9cnica llamada imagen a video y puede ejecutarse localmente en una m\u00e1quina con una GPU Nvidia.<\/p>\n
El a\u00f1o pasado, Stability AI caus\u00f3 sensaci\u00f3n con el lanzamiento de Stable Diffusion, un modelo de s\u00edntesis de im\u00e1genes de \u00abpesos abiertos\u00bb que inici\u00f3 una ola de s\u00edntesis de im\u00e1genes abiertas e inspir\u00f3 a una gran comunidad de aficionados que han aprovechado la tecnolog\u00eda con su propia tecnolog\u00eda personalizada. afinaciones. Ahora Stability quiere hacer lo mismo con la s\u00edntesis de v\u00eddeo mediante IA, aunque la tecnolog\u00eda a\u00fan est\u00e1 en su infancia.<\/p>\n
En este momento, Stable Video Diffusion consta de dos modelos: uno que puede producir s\u00edntesis de imagen a video con 14 fotogramas de longitud (llamado \u00abSVD\u00bb) y otro que genera 25 fotogramas (llamado \u00abSVD-XT\u00bb). Pueden funcionar a velocidades variables de 3 a 30 fotogramas por segundo y producen clips de v\u00eddeo MP4 cortos (normalmente de 2 a 4 segundos de duraci\u00f3n) con una resoluci\u00f3n de 576\u00d71024.<\/p>\n\n<\/figure>\nEn nuestras pruebas locales, se tard\u00f3 unos 30 minutos en crear una generaci\u00f3n de 14 fotogramas en una tarjeta gr\u00e1fica Nvidia RTX 3060, pero los usuarios pueden experimentar ejecutando los modelos mucho m\u00e1s r\u00e1pido en la nube a trav\u00e9s de servicios como Hugging Face y Replicate (algunos de los cuales puede hay que pagar). En nuestros experimentos, la animaci\u00f3n generada normalmente mantiene est\u00e1tica una parte de la escena y agrega efectos de panor\u00e1mica y zoom o anima humo o fuego. Las personas representadas en las fotograf\u00edas a menudo no se mueven, aunque conseguimos que una imagen de Getty de Steve Wozniak cobrara ligeramente vida.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n(Nota: adem\u00e1s de la foto de Steve Wozniak Getty Images, las otras im\u00e1genes animadas en este art\u00edculo se generaron con DALL-E 3 y se animaron usando Stable Video Diffusion).<\/p>\n
Dadas estas limitaciones, Stability enfatiza que el modelo a\u00fan es temprano y est\u00e1 destinado \u00fanicamente a investigaci\u00f3n. \u00abSi bien actualizamos con entusiasmo nuestros modelos con los \u00faltimos avances y trabajamos para incorporar sus comentarios\u00bb, escribe la compa\u00f1\u00eda en su sitio web, \u00abeste modelo no est\u00e1 dise\u00f1ado para aplicaciones comerciales o del mundo real en esta etapa. Sus ideas y comentarios sobre seguridad y La calidad es importante para perfeccionar este modelo para su eventual lanzamiento\u00bb.<\/p>\n\n<\/figure>\nEn particular, pero tal vez no sea sorprendente, el art\u00edculo de investigaci\u00f3n de Stable Video Diffusion no revela la fuente de los conjuntos de datos de entrenamiento de los modelos, solo dice que el equipo de investigaci\u00f3n utiliz\u00f3 \u00abun gran conjunto de datos de video que comprende aproximadamente 600 millones de muestras\u00bb que seleccionaron en el Large Video Dataset. (LVD), que consta de 580 millones de videoclips comentados que abarcan 212 a\u00f1os de duraci\u00f3n de contenido.<\/p>\n
Stable Video Diffusion est\u00e1 lejos de ser el primer modelo de IA que ofrece este tipo de funcionalidad. Anteriormente cubrimos otros m\u00e9todos de s\u00edntesis de video con IA, incluidos los de Meta, Google y Adobe. Tambi\u00e9n cubrimos el ModelScope de c\u00f3digo abierto y lo que muchos consideran el mejor modelo de video de IA en este momento, el modelo Gen-2 de Runway (Pika Labs es otro proveedor de video de IA). Stability AI dice que tambi\u00e9n est\u00e1 trabajando en un modelo de texto a video, que permitir\u00e1 la creaci\u00f3n de videoclips cortos utilizando indicaciones escritas en lugar de im\u00e1genes.<\/p>\n\n<\/figure>\nLa fuente y los pesos de Stable Video Diffusion est\u00e1n disponibles en GitHub, y otra forma sencilla de probarlo localmente es ejecutarlo a trav\u00e9s de la plataforma Pinokio, que maneja las dependencias de instalaci\u00f3n f\u00e1cilmente y ejecuta el modelo en su propio entorno.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ Todav\u00eda ejemplos de im\u00e1genes animadas usando Stable Video Diffusion de Stability AI. Estabilidad IA El martes, Stability AI lanz\u00f3 Stable Video Diffusion, una nueva herramienta gratuita de investigaci\u00f3n…<\/p>\n","protected":false},"author":1,"featured_media":905559,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[12330,1353,45804,26502,10076,275,1488,104,495,542],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/905558"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=905558"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/905558\/revisions"}],"predecessor-version":[{"id":905560,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/905558\/revisions\/905560"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/905559"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=905558"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=905558"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=905558"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}