La vida después de la IA de ‘Seinfeld’: preguntas, respuestas y oportunidades (columna)


¿Se puede demandar a un programa de IA? ¿Se quedarán obsoletas las salas de escritores? Estas y otras preguntas candentes de una semana ocupada para la inteligencia artificial.

Con el lanzamiento público en diciembre pasado de ChatGPT de OpenAI, de repente la inteligencia artificial está en todas partes. En diciembre del año pasado, usé esta columna para proponer que la IA podría empoderar a los creativos, proporcionar una herramienta poderosa para la experimentación y no representar una amenaza directa para ninguna forma de arte específica.

Desde entonces, el comportamiento de la IA ha provocado más ansiedad que entusiasmo: los modelos de IA han aprobado los exámenes de las facultades de derecho y negocios, mientras que a los escritores les preocupa que puedan ser reemplazados por máquinas en cualquier momento, y muchos experimentos de IA en creatividad han salido mal. El ejemplo reciente más notorio fue la parodia de «Seinfeld» generada por IA «Nothing, Forever», que actualmente está prohibida por sus bromas transfóbicas.

El producto del estudio de arte digital Mismatch Media, “Nothing, Forever” combina plataformas generativas de imágenes y texto de IA para crear una variación de 24 horas de la popular comedia de situación de los 90. Transmitido en vivo en Twitch, el proyecto acumuló una gran cantidad de seguidores después de su lanzamiento a mediados de diciembre, con miles de espectadores sintonizando las versiones pixeladas de los neuróticos neoyorquinos conversando en su apartamento.

No duró mucho. Al igual que la serie original, el espectáculo interminable incluía cortes recurrentes del personaje parecido a Seinfeld haciendo stand-up. El 5 de febrero, el comediante virtual se paró frente al micrófono y dijo que estaba “pensando en hacer un poco sobre que ser transgénero es en realidad una enfermedad mental, o cómo todos los liberales son secretamente homosexuales y quieren imponer su voluntad a todos, o algo así. sobre cómo las personas transgénero están arruinando el tejido de la sociedad”.

“Nada, para siempre”

captura de pantalla/contracción

Marcado por violar el código de conducta de Twitch, «Nothing, Forever» fue suspendido por 14 días. En Discord, los creadores dijeron que apelarían la decisión y atribuyeron los comentarios a un cambio de último minuto del modelo de lenguaje GPT-3 Davinci de OpenAI a uno más antiguo, Curie, que tenía herramientas de moderación integradas más débiles.

Los fundadores de Mismatch Media, Skyler Hartle y Brian Habersberg, no respondieron a las solicitudes de comentarios, ni tampoco los representantes de OpenAI. Sin embargo, el incidente demostró que la narración de IA autogenerada es un negocio arriesgado. A raíz del último contratiempo, estas son las preguntas más importantes para los creativos que aceptan la IA, y una gran oportunidad para los estudios que miran desde el margen.

¿La IA es transfóbica?

“Nothing, Forever” suena como una computadora diciendo lo que piensa, pero está leyendo texto generado a través de modelos predictivos basados ​​en datos. Y hay un lote de datos a disposición de GPT-3. Si bien OpenAI creó barandillas para prohibirle expresar material ofensivo, está rastreando un vasto océano no regulado de contenido basado en Internet. Se le puede decir a una plataforma de IA que evite ciertos términos, pero por ahora no puede comprender la totalidad contexto en el que expresarlos podría ser problemático.

“Realmente destaca que existen problemas fundamentales con el funcionamiento de estos modelos”, dijo Steven T. Piantadosi, quien dirige el laboratorio de computación y lenguaje en UC Berkeley. “Son muy buenos para aprender y duplicar textos, pero están entrenando en Internet y hay cosas horribles en Internet”.

Cuando OpenAI lanzó ChatGPT en diciembre, Piantadosi experimentó para encontrar formas de hacer que el sistema expresara los prejuicios raciales que estaba programado para evitar. Le pidió que generara un código predictivo, usando raza y género, para determinar si alguien era un buen científico. El sistema compiló un programa que reconoció a los hombres blancos como científicos superiores. Otra solicitud del programa, esta diseñada para determinar si alguien debe ser torturado, escupió un código que respondía afirmativamente para cualquier persona de Corea del Norte, Siria o Irán.

“Esto destaca un problema general”, dijo Piantadosi. “Estos modelos realmente solo predicen texto. Hay cosas interesantes que puedes aprender sobre el mundo, pero es posible que quieras modelos con una comprensión más profunda de lo que están haciendo”.

El 6 de febrero, el día después de la prohibición de «Nada, para siempre», Google se apresuró a lanzar el chatbot de inteligencia artificial Bard. En su primera demostración, Bard creó información errónea. En respuesta a la pregunta, «¿Qué nuevos descubrimientos del Telescopio Espacial James Webb puedo contarle a mi hijo de 9 años?», el sistema atribuyó al telescopio la toma de las primeras imágenes de un exoplaneta. Eso sucedió casi dos décadas antes del lanzamiento de JWST.

“Realmente destaca que existen problemas fundamentales con el funcionamiento de estos modelos”, dijo Piantadosi. “Son muy buenos para aprender y duplicar textos, pero están entrenando en internet. Si tiene datos de entrenamiento que son sesgados o dañinos, entonces, por supuesto, los modelos los incorporarán. Es una tirita de mierda.

Piantadosi dijo que este problema se resolverá cuando los nuevos modelos puedan usar menos información. “Podrías imaginar entrenar a estos modelos en algo más curado, como Wikipedia”, Piantadosi. “La gente no ha descubierto cómo entrenar modelos en conjuntos de datos más pequeños. Eso es lo que viene”.

¿Puede la IA reemplazar a los escritores humanos?

Hasta ahora, AI no ha podido expresar los términos refinados de un guión; es más como la transmisión en vivo de una sala de escritores. Al expresar predicciones basadas en texto basadas en datos existentes, la IA puede generar ideas, pero no puede operar de forma autónoma. “Si lo usa de una manera en la que una persona evalúa el resultado antes de distribuirlo a otras personas, esa persona debe tener una idea de lo que es apropiado o inapropiado”, dijo Piantadosi.

En noviembre, poco antes del lanzamiento de ChatGPT, el artista y programador italiano Giacomi Miceli creó The Infinite Conversation, una conversación interminable generada por IA entre Werner Herzog y el filósofo Slavoj Zizek. Miceli dijo que el proyecto es un experimento diseñado para revelar las fallas de la tecnología.

“Dicen cosas que son objetivamente incorrectas y expresan opiniones que nunca dirían en la vida real”, dijo Miceli. “Herzog habla con compasión sobre los pollos, pero todos sabemos que Herzog odia visceralmente a los pollos. El sistema solo tiene una vaga idea de cómo expresan los conceptos”.

Un fotograma de “La conversación infinita”

Es posible que los oyentes no capten tales matices (¿no ¿Sabes que Herzog odia a los pollos?), pero muestran las limitaciones de tratar de aproximar el arte y las ideas. “Elegí a un filósofo y cineasta que tiene tendencia a hablar en términos poéticos”, dijo Miceli. “Las cosas que dicen sobre estética y filosofía son tan vagas o sofisticadas que podrías pensar que simplemente no lo entiendes, no es que sea una tontería. Ese es un mecanismo que puede ser explotado”.

Es posible que la narración de historias de IA no cree un programa del calibre de Netflix autoprogramado, pero es muy probable que un programa de Netflix escrito por humanos se vea mejorado por las sugerencias de IA. (Dados los algoritmos tan cacareados de Netflix, se podría argumentar que esto ya sucedió).

Giacomi señaló que, a pesar de la emoción viral que rodea a «Nothing, Forever», no fue un entretenimiento pulido. “Me parece atroz”, dijo. “Son solo ensaladas de palabras que no tienen ningún sentido. En unos años, las cosas podrían cambiar drásticamente, pero va a ser bastante difícil dejar a los humanos sin trabajo”.

¿En cuanto a la inquietante capacidad de ChatGPT para aprobar exámenes de derecho? “Es más una acusación de los exámenes de la facultad de derecho que se pueden aprobar prestando atención a los patrones estadísticos sobre cómo se usan las palabras”, dijo Piantadosi. “Ellos saben todo acerca de cómo las palabras se usan juntas. Es cualitativamente diferente a nuestra propia autoconciencia”.

¿Cuáles son los riesgos legales?

Oh sí. Habrá juicios. También el 6 de febrero, Getty Images demandó a la empresa de inteligencia artificial generativa Stability AI y alegó que infringió más de 12 millones de fotografías, subtítulos y otros metadatos de Getty sin permiso.

“Nothing, Forever” trata de eludir una línea legal borrosa: sus creadores afirman que es una parodia, que está protegida por el uso justo. El estudio también cambió los nombres de los personajes clave. Sin embargo, también existe el argumento de que no satiriza el programa sino que toma prestado su entorno y apariencia. Si es así, eso podría violar los términos de servicio de OpenAI, que prohíben «imágenes de personas sin su consentimiento», lo que podría hacer responsable a Mismatch Media, en caso de que los titulares de los derechos de «Seinfeld» decidan demandar.

SEINFELD, Jason Alexander, Julia Louis-Dreyfus, Jerry Seinfeld, (temporada 1), 1990-98, (c) Castle Rock Entertainment / Courtsey Everett Collection

«Seinfield»

©Castle Rock Entertainment/Cortesía Colección Everett

Este es el tipo de preguntas que Elizabeth Moody, presidenta de New Media Practice en el bufete de abogados de entretenimiento Granderson Des Rochers, ha investigado durante años. “Cuanto más aprendo sobre los modelos, me doy cuenta de que mucho dependerá de cómo se usen los materiales de capacitación”, dijo.

La mayoría del trabajo generado por IA se basa en un conjunto de datos tan grande que es «realmente imposible saber qué materiales con derechos de autor se usaron», dijo Moody. “Lo compararía con un artista influenciado por otro. Ese es un desafío para los propietarios de los derechos de autor. ¿Cómo pueden mostrar que algo fue creado usando sus propias obras?”

“Nada, para siempre” es diferente. “Si solo tomas el trabajo de un artista y basas los resultados de tu nuevo trabajo en uno o dos trabajos, entonces es mucho más difícil decir que no lo estás robando”, dijo. “Ahí es donde el ejemplo de ‘Seinfeld’ es más fácil de ver. Está claramente basado en guiones con derechos de autor. Puedes decir la fuente con bastante facilidad.

Los creadores podrían apoyarse en un argumento de uso justo, pero «es una situación caso por caso», dijo Moody. “Es difícil establecer una regla general y decir que todos los trabajos creados por IA son de uso justo. Además, el uso justo es un marco de la ley de derechos de autor de EE. UU. y no está reconocido en otros países”.

¿Puede la ley ponerse al día?

El verano pasado, la Unión Europea aprobó la Ley de Inteligencia Artificial, que describe las categorías de riesgo para la IA y requiere una mayor transparencia. Otros países que avanzan son Brasil, que recientemente aprobó un proyecto de ley que otorga un marco legal a la IA, y Chile, que lanzó una política en 2021.

En los EE. UU., las propuestas de IA han estado en juego desde 2019; según la Conferencia Nacional de Legislaturas Estatales, 17 estados promulgaron varias propuestas relacionadas con la regulación de la IA el año pasado. Sin embargo, no existe una política federal de IA.

Moody sugiere una solución diferente: si no puedes vencerlos, únete a ellos. “Estas preguntas serán resueltas por las empresas que trabajan juntas”, dijo. “La ley evoluciona muy lentamente y nunca alcanzará la innovación que está ocurriendo. Las demandas ayudarán a establecer leyes durante los próximos cinco años, pero eso no es lo suficientemente rápido para proteger a los grandes propietarios de derechos de autor. Si soy un gran estudio, probablemente sea inteligente para mí hacer tratos con algunas de estas compañías y ver cómo proteger a los artistas usando estas herramientas en lugar de luchar contra ellos”.

Ahí radica la oportunidad: el primer gran estudio en adquirir una empresa de inteligencia artificial podría enfrentar el escrutinio sobre sus motivos por parte de creadores preocupados por ser reemplazados. Pero podría ser su mejor esperanza.

Como de costumbre, agradezco los comentarios sobre los temas que participan en este espacio cada semana: [email protected]

La columna de la semana pasada sobre los problemas que enfrenta el mercado de documentales y el posible cambio de nombre de la no ficción sin la palabra «documental» provocó comentarios sustanciales de los lectores. Aquí hay uno.

Disfruté muchísimo y me relacioné con su artículo sobre los cineastas que se refieren a sus películas como documentos. Definitivamente tomaré atención. Cuando hice la gira de medios de mi película “Transhood” (HBO), siempre tuve cuidado de decir que era una historia sobre la mayoría de edad y, por cierto, todos los niños son trans. En lugar de presentarlo como un «documento» sobre niños trans, quería enfatizar que, ante todo, era un género más amplio y más fácil de relacionar. ¡Y ahora, modificaré mi vocabulario aún más! Estoy totalmente de acuerdo con su premisa de que a todos nos vendría bien un poco de reformulación en la forma en que presentamos nuestras películas al mundo.

—Sharon Liese, directora y productora

Inscribirse: ¡Manténgase al tanto de las últimas noticias de cine y televisión! Regístrese aquí para recibir nuestros boletines por correo electrónico.





Source link-21