{"id":1108889,"date":"2024-04-29T02:26:24","date_gmt":"2024-04-29T02:26:24","guid":{"rendered":"https:\/\/magazineoffice.com\/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia\/"},"modified":"2024-04-29T02:26:27","modified_gmt":"2024-04-29T02:26:27","slug":"los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia\/","title":{"rendered":"Los creadores del corto impulsado por Sora explican las fortalezas y limitaciones del video generado por IA"},"content":{"rendered":"


\n<\/p>\n

\n

La herramienta de generaci\u00f3n de v\u00eddeo de OpenAI, Sora, tom\u00f3 por sorpresa a la comunidad de IA en febrero con un v\u00eddeo fluido y realista que parece estar muy por delante de la competencia. Pero el debut cuidadosamente organizado omiti\u00f3 muchos detalles, detalles que fueron completados por un cineasta al que se le dio acceso temprano para crear un corto con Sora.<\/p>\n

Shy Kids es un equipo de producci\u00f3n digital con sede en Toronto que fue elegido por OpenAI como uno de los pocos para producir cortometrajes esencialmente con fines promocionales de OpenAI, aunque se les dio una considerable libertad creativa para crear \u00abcabeza de aire\u00bb. En una entrevista con el medio de noticias de efectos visuales fxguide, el artista de postproducci\u00f3n Patrick Cederberg describi\u00f3 \u201crealmente usar a Sora\u201d como parte de su trabajo.<\/p>\n

Quiz\u00e1s la conclusi\u00f3n m\u00e1s importante para la mayor\u00eda es simplemente esta: si bien la publicaci\u00f3n de OpenAI que destaca los cortos permite al lector asumir que surgieron m\u00e1s o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con un gui\u00f3n gr\u00e1fico s\u00f3lido, edici\u00f3n, correcci\u00f3n de color, y trabajos posteriores como rotoscopia y VFX. As\u00ed como Apple dice \u00abfilmado con iPhone\u00bb pero no muestra la configuraci\u00f3n del estudio, la iluminaci\u00f3n profesional y el trabajo de color despu\u00e9s del hecho, la publicaci\u00f3n de Sora solo habla de lo que permite hacer a las personas, no de c\u00f3mo lo hicieron realmente.<\/p>\n

La entrevista de Cederberg es interesante y nada t\u00e9cnica, as\u00ed que si est\u00e1s interesado en algo, dir\u00edgete a fxguide y l\u00e9ela. Pero aqu\u00ed hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo quiz\u00e1s sea un paso de gigante menor de lo que pens\u00e1bamos.<\/p>\n

\n

El control sigue siendo lo m\u00e1s deseable y tambi\u00e9n lo m\u00e1s dif\u00edcil de alcanzar en este momento. \u2026 Lo m\u00e1s cerca que pudimos llegar fue simplemente ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, as\u00ed como el tipo de globo, fue nuestra forma de lograr la coherencia porque, plano a plano\/generaci\u00f3n en generaci\u00f3n, todav\u00eda no existe la caracter\u00edstica establecida para un control total sobre la coherencia.<\/p>\n<\/blockquote>\n

En otras palabras, cuestiones que son simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los dem\u00e1s. Obviamente, eso podr\u00eda cambiar, pero ciertamente es mucho m\u00e1s laborioso en este momento.<\/p>\n

Las salidas de Sora tambi\u00e9n deb\u00edan ser vigiladas para detectar elementos no deseados: Cederberg describi\u00f3 c\u00f3mo el modelo generaba rutinariamente una cara en el globo que el personaje principal tiene como cabeza, o una cuerda colgando del frente. Estos deb\u00edan eliminarse en la publicaci\u00f3n, otro proceso que requer\u00eda mucho tiempo, si no recib\u00edan el mensaje para excluirlos.<\/p>\n

La sincronizaci\u00f3n y los movimientos precisos de los personajes o de la c\u00e1mara no son realmente posibles: \u00abHay un poco de control temporal sobre d\u00f3nde ocurren estas diferentes acciones en la generaci\u00f3n real, pero no es preciso… es una especie de toma en la oscuridad\u00bb, dijo Cederberg.<\/p>\n

Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panor\u00e1mica hacia arriba en el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo renderiz\u00f3 una toma compuesta en orientaci\u00f3n vertical y recort\u00f3 una panor\u00e1mica en la posproducci\u00f3n. Los clips generados tambi\u00e9n a menudo estaban en c\u00e1mara lenta sin ning\u00fan motivo en particular.<\/p>\n

\n

Ejemplo de un disparo como sali\u00f3 de Sora y c\u00f3mo acab\u00f3 en el corto. Cr\u00e9ditos de imagen:<\/strong> ni\u00f1os t\u00edmidos<\/p>\n<\/div>\n

De hecho, el uso del lenguaje cotidiano del cine, como \u201cpanor\u00e1mica hacia la derecha\u201d o \u201cplano de seguimiento\u201d, era inconsistente en general, dijo Cederberg, lo que el equipo encontr\u00f3 bastante sorprendente.<\/p>\n

\u00abLos investigadores, antes de acercarse a los artistas para que jugaran con la herramienta, en realidad no hab\u00edan pensado como cineastas\u00bb, dijo.<\/p>\n

Como resultado, el equipo hizo cientos de generaciones, cada una de 10 a 20 segundos, y termin\u00f3 usando solo un pu\u00f1ado. Cederberg estim\u00f3 la proporci\u00f3n en 300:1, pero, por supuesto, probablemente a todos nos sorprender\u00eda la proporci\u00f3n en una sesi\u00f3n normal.<\/p>\n

De hecho, el equipo hizo un peque\u00f1o video detr\u00e1s de escena explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, los comentarios son bastante cr\u00edticos con todo el esfuerzo, aunque no tan vituperantes como el anuncio asistido por IA que vimos ridiculizado recientemente.<\/p>\n

El \u00faltimo aspecto interesante tiene que ver con los derechos de autor: si le pides a Sora que te d\u00e9 un clip de \u201cStar Wars\u201d, se negar\u00e1. Y si intentas eludirlo con \u201cun hombre vestido con una espada l\u00e1ser en una nave espacial retrofuturista\u201d, tambi\u00e9n se negar\u00e1, ya que mediante alg\u00fan mecanismo reconoce lo que est\u00e1s tratando de hacer. Tambi\u00e9n se neg\u00f3 a hacer un \u201cplano tipo Aronofsky\u201d o un \u201czoom de Hitchcock\u201d.<\/p>\n

Por un lado, tiene mucho sentido. Pero s\u00ed plantea la pregunta: si Sora sabe cu\u00e1les son, \u00bfeso significa que el modelo fue entrenado en ese contenido para reconocer mejor que est\u00e1 infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto, hasta el punto del absurdo, como ocurre con Entrevista de la CTO Mira Murati con Joanna Stern<\/a> – Es casi seguro que nunca nos lo dir\u00e1.<\/p>\n

En cuanto a Sora y su uso en la realizaci\u00f3n cinematogr\u00e1fica, es claramente una herramienta poderosa y \u00fatil en su lugar, pero su lugar no es \u00abcrear pel\u00edculas de la nada\u00bb. Todav\u00eda. Como dijo una vez otro villano, \u00abeso viene despu\u00e9s\u00bb.<\/p>\n<\/p><\/div>\n