La batalla generativa de IA tiene un defecto fundamental


la semana pasada, el Authors Guild envió una carta abierta a los líderes de algunas de las compañías de IA generativa más grandes del mundo. Firmado por más de 9.000 escritores, incluidos autores destacados como George Saunders y Margaret Atwood, pidió a empresas como Alphabet, OpenAI, Meta y Microsoft “obtener consentimiento, crédito y compensación justa a los escritores por el uso de materiales protegidos por derechos de autor en el entrenamiento de IA”. El alegato es solo el último de una serie de esfuerzos de los creativos para obtener crédito y compensación por el papel que afirman que ha desempeñado su trabajo en el entrenamiento de sistemas generativos de IA.

Los datos de entrenamiento utilizados para modelos de lenguaje grande, o LLM, y otros sistemas generativos de IA se han mantenido clandestinos. Pero cuanto más se utilizan estos sistemas, más escritores y artistas visuales notan similitudes entre su trabajo y la producción de estos sistemas. Muchos han pedido a las empresas de IA generativa que revelen sus fuentes de datos y, al igual que con el Sindicato de Autores, que compensen a aquellos cuyos trabajos se utilizaron. Algunas de las súplicas son cartas abiertas y publicaciones en redes sociales, pero un número cada vez mayor son demandas.

Es aquí donde la ley de derechos de autor juega un papel importante. Sin embargo, es una herramienta que no está equipada para abordar la gama completa de las ansiedades de los artistas, ya sean preocupaciones de larga data sobre el empleo y la compensación en un mundo trastocado por Internet, o nuevas preocupaciones sobre la privacidad y las características personales, y sin derechos de autor. Para muchos de estos, los derechos de autor solo pueden ofrecer respuestas limitadas. “Hay muchas preguntas que la IA crea para casi todos los aspectos de la sociedad”, dice Mike Masnick, editor del blog de tecnología Techdirt. “Pero creo que este enfoque limitado en los derechos de autor como la herramienta para lidiar con eso está realmente fuera de lugar”.

El perfil más alto Una de estas demandas recientes se produjo a principios de este mes cuando la comediante Sarah Silverman, junto con otros cuatro autores en dos presentaciones separadas, demandó a OpenAI, alegando que la compañía entrenó su popular sistema ChatGPT en sus obras sin permiso. Ambas demandas colectivas fueron presentadas por el bufete de abogados Joseph Saveri, que se especializa en litigios antimonopolio. La firma también representa a los artistas que demandan a Stability AI, Midjourney y DeviantArt por razones similares. La semana pasada, durante una audiencia en ese caso, el juez del tribunal de distrito de EE. UU. William Orrick indicó que podría desestimar la mayor parte de la demanda y afirmó que, dado que estos sistemas habían sido entrenados en «cinco mil millones de imágenes comprimidas», los artistas involucrados necesitaban «proporcionar más hechos» para sus reclamos de infracción de derechos de autor.

El caso Silverman alega, entre otras cosas, que OpenAI pudo haber borrado las memorias del comediante, Enuresis, a través de «bibliotecas en la sombra» que albergan tesoros de libros electrónicos y artículos académicos pirateados. Si el tribunal falla a favor de Silverman y sus compañeros demandantes, el fallo podría sentar un nuevo precedente sobre cómo la ley ve los conjuntos de datos utilizados para entrenar modelos de IA, dice Matthew Sag, profesor de derecho en la Universidad de Emory. Específicamente, podría ayudar a determinar si las empresas pueden reclamar un uso justo cuando sus modelos extraen material protegido por derechos de autor. “No voy a hablar sobre el resultado de esta pregunta”, dice Sag sobre la demanda de Silverman. “Pero parece ser el más convincente de todos los casos que se han presentado”. OpenAI no respondió a las solicitudes de comentarios.

En el centro de estos casos, explica Sag, se encuentra la misma teoría general: que los LLM “copiaron” las obras protegidas de los autores. Sin embargo, como explicó Sag en su testimonio ante una audiencia del subcomité del Senado de EE. UU. a principios de este mes, los modelos como GPT-3.5 y GPT-4 no «copian» el trabajo en el sentido tradicional. Digerir sería un verbo más apropiado: digerir datos de entrenamiento para llevar a cabo su función: predecir la mejor siguiente palabra en una secuencia. “En lugar de pensar que un LLM copia los datos de entrenamiento como un escriba en un monasterio”, dijo Sag en su testimonio en el Senado, “tiene más sentido pensar que aprende de los datos de entrenamiento como un estudiante”.



Source link-46