Los artistas pueden «envenenar» los modelos de IA antes de que la Oficina de Derechos de Autor pueda emitir directrices


Agrandar / Una imagen OpenAI creada con DALL-E 3.

Los artistas han pasado el año pasado luchando contra empresas que han estado entrenando generadores de imágenes de IA (incluidas herramientas populares como el impresionantemente fotorrealista Midjourney o el ultrasofisticado DALL-E 3) en sus obras originales sin consentimiento ni compensación. Ahora, Estados Unidos ha prometido finalmente abordar en serio las preocupaciones sobre derechos de autor planteadas por la IA, dijo el presidente Joe Biden en su tan esperada orden ejecutiva sobre la IA, que se firmó esta semana.

La Oficina de Derechos de Autor de EE. UU. ya había estado buscando opiniones del público sobre las preocupaciones de la IA durante los últimos meses a través de un período de comentarios que finalizó el 15 de noviembre. La orden ejecutiva de Biden ha aclarado que después de este período de comentarios, la Oficina de Derechos de Autor publicará los resultados de su estudio. Y luego, dentro de los 180 días posteriores a esa publicación (o dentro de los 270 días posteriores a la orden de Biden, «lo que ocurra más tarde»), el director de la Oficina de Derechos de Autor consultará con Biden para «emitir recomendaciones al Presidente sobre posibles acciones ejecutivas relacionadas con los derechos de autor y la IA».

«Las recomendaciones abordarán todos los derechos de autor y cuestiones relacionadas discutidas en el estudio de la Oficina de Derechos de Autor de Estados Unidos, incluido el alcance de la protección de las obras producidas utilizando IA y el tratamiento de las obras protegidas por derechos de autor en la capacitación en IA», decía la orden de Biden.

Eso significa que, potencialmente, dentro de los próximos seis a nueve meses (o más), los artistas pueden tener respuestas a algunas de sus preguntas legales más importantes, incluida una comprensión más clara de cómo proteger sus obras para que no se utilicen para entrenar modelos de IA.

Actualmente, los artistas no tienen muchas opciones para impedir que los creadores de imágenes con IA (que generan imágenes basadas en indicaciones de texto del usuario) hagan referencia a sus obras. Incluso empresas como OpenAI, que recientemente comenzaron a permitir que los artistas opten por no incluir obras en los datos de entrenamiento de IA, solo permiten a los artistas optar por no recibir datos de entrenamiento futuros. Los artistas no pueden optar por no recibir datos de entrenamiento que alimentan las herramientas existentes porque, como dice OpenAI:

Una vez que los modelos de IA han aprendido de sus datos de entrenamiento, ya no tienen acceso a ellos. Los modelos sólo retienen los conceptos que aprendieron. Cuando alguien realiza una solicitud a un modelo, el modelo genera un resultado basado en su comprensión de los conceptos incluidos en la solicitud. No busca ni copia contenido de una base de datos existente.

Según The Atlantic, este proceso de exclusión voluntaria, que requiere que los artistas envíen solicitudes para cada obra de arte y que podría ser demasiado complicado de completar para muchos artistas, deja a los artistas atrapados sólo con la opción de proteger las nuevas obras que «crean de ahora en adelante». «. Parece que es demasiado tarde para proteger cualquier trabajo «ya reclamado por las máquinas» en 2023, advirtió The Atlantic. Y este problema claramente afecta a mucha gente. Un portavoz dijo a The Atlantic que solo Stability AI ha respondido «más de 160 millones de solicitudes de exclusión voluntaria en la próxima capacitación».

Hasta que los reguladores federales determinen qué derechos deben conservar los artistas a medida que las tecnologías de IA avanzan rápidamente, al menos una artista, la caricaturista e ilustradora Sarah Andersen, está presentando una demanda por infracción directa de derechos de autor contra Stability AI, fabricante de Stable Diffusion, otra notable herramienta de síntesis de imágenes de IA. .

Andersen, cuya demanda colectiva propuesta podría afectar a todos los artistas, tiene alrededor de un mes para modificar su demanda para «declarar de manera plausible que los productos de inteligencia artificial de los demandados permiten a los usuarios crear nuevas obras haciendo referencia expresa a las obras de Andersen por su nombre», si quiere «las inferencias». en su denuncia «sobre cómo y cuánto del contenido protegido de Andersen permanece en Stable Diffusion o es utilizado por los productos finales de IA» para «ser más fuerte», recomendó un juez.

En otras palabras, según las leyes de derechos de autor actuales, Andersen probablemente tendrá dificultades para ganar su batalla legal si no muestra al tribunal qué imágenes específicas protegidas por derechos de autor se usaron para entrenar modelos de IA y demuestra que esos modelos usaron esas imágenes específicas para escupir arte que parece exactamente como el de ella. Citar ejemplos específicos será importante, dijo un experto legal a TechCrunch, porque argumentar que las herramientas de inteligencia artificial imitan estilos probablemente no funcione, ya que «el estilo ha demostrado ser casi imposible de proteger con derechos de autor».

Los abogados de Andersen dijeron a Ars que su caso es «complejo», pero siguen confiando en que ella puede ganar, posiblemente porque, como dijeron otros expertos a The Atlantic, podría demostrar que «los programas de IA generativa pueden retener una cantidad sorprendente de información». sobre una imagen en sus datos de entrenamiento, a veces lo suficiente como para reproducirla casi a la perfección». Pero podría fracasar si el tribunal decide que el uso de datos para entrenar modelos de IA es un uso legítimo de las obras de los artistas, una cuestión legal que aún no está clara.



Source link-49