\n<\/aside>\n<\/p>\n
Los artistas han pasado el a\u00f1o pasado luchando contra empresas que han estado entrenando generadores de im\u00e1genes de IA (incluidas herramientas populares como el impresionantemente fotorrealista Midjourney o el ultrasofisticado DALL-E 3) en sus obras originales sin consentimiento ni compensaci\u00f3n. Ahora, Estados Unidos ha prometido finalmente abordar en serio las preocupaciones sobre derechos de autor planteadas por la IA, dijo el presidente Joe Biden en su tan esperada orden ejecutiva sobre la IA, que se firm\u00f3 esta semana.<\/p>\n
La Oficina de Derechos de Autor de EE. UU. ya hab\u00eda estado buscando opiniones del p\u00fablico sobre las preocupaciones de la IA durante los \u00faltimos meses a trav\u00e9s de un per\u00edodo de comentarios que finaliz\u00f3 el 15 de noviembre. La orden ejecutiva de Biden ha aclarado que despu\u00e9s de este per\u00edodo de comentarios, la Oficina de Derechos de Autor publicar\u00e1 los resultados de su estudio. Y luego, dentro de los 180 d\u00edas posteriores a esa publicaci\u00f3n (o dentro de los 270 d\u00edas posteriores a la orden de Biden, \u00ablo que ocurra m\u00e1s tarde\u00bb), el director de la Oficina de Derechos de Autor consultar\u00e1 con Biden para \u00abemitir recomendaciones al Presidente sobre posibles acciones ejecutivas relacionadas con los derechos de autor y la IA\u00bb.<\/p>\n
\u00abLas recomendaciones abordar\u00e1n todos los derechos de autor y cuestiones relacionadas discutidas en el estudio de la Oficina de Derechos de Autor de Estados Unidos, incluido el alcance de la protecci\u00f3n de las obras producidas utilizando IA y el tratamiento de las obras protegidas por derechos de autor en la capacitaci\u00f3n en IA\u00bb, dec\u00eda la orden de Biden.<\/p>\n
Eso significa que, potencialmente, dentro de los pr\u00f3ximos seis a nueve meses (o m\u00e1s), los artistas pueden tener respuestas a algunas de sus preguntas legales m\u00e1s importantes, incluida una comprensi\u00f3n m\u00e1s clara de c\u00f3mo proteger sus obras para que no se utilicen para entrenar modelos de IA.<\/p>\n
Actualmente, los artistas no tienen muchas opciones para impedir que los creadores de im\u00e1genes con IA (que generan im\u00e1genes basadas en indicaciones de texto del usuario) hagan referencia a sus obras. Incluso empresas como OpenAI, que recientemente comenzaron a permitir que los artistas opten por no incluir obras en los datos de entrenamiento de IA, solo permiten a los artistas optar por no recibir datos de entrenamiento futuros. Los artistas no pueden optar por no recibir datos de entrenamiento que alimentan las herramientas existentes porque, como dice OpenAI:<\/p>\n
\nUna vez que los modelos de IA han aprendido de sus datos de entrenamiento, ya no tienen acceso a ellos. Los modelos s\u00f3lo retienen los conceptos que aprendieron. Cuando alguien realiza una solicitud a un modelo, el modelo genera un resultado basado en su comprensi\u00f3n de los conceptos incluidos en la solicitud. No busca ni copia contenido de una base de datos existente.<\/p>\n<\/blockquote>\n
Seg\u00fan The Atlantic, este proceso de exclusi\u00f3n voluntaria, que requiere que los artistas env\u00eden solicitudes para cada obra de arte y que podr\u00eda ser demasiado complicado de completar para muchos artistas, deja a los artistas atrapados s\u00f3lo con la opci\u00f3n de proteger las nuevas obras que \u00abcrean de ahora en adelante\u00bb. \u00ab. Parece que es demasiado tarde para proteger cualquier trabajo \u00abya reclamado por las m\u00e1quinas\u00bb en 2023, advirti\u00f3 The Atlantic. Y este problema claramente afecta a mucha gente. Un portavoz dijo a The Atlantic que solo Stability AI ha respondido \u00abm\u00e1s de 160 millones de solicitudes de exclusi\u00f3n voluntaria en la pr\u00f3xima capacitaci\u00f3n\u00bb.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nHasta que los reguladores federales determinen qu\u00e9 derechos deben conservar los artistas a medida que las tecnolog\u00edas de IA avanzan r\u00e1pidamente, al menos una artista, la caricaturista e ilustradora Sarah Andersen, est\u00e1 presentando una demanda por infracci\u00f3n directa de derechos de autor contra Stability AI, fabricante de Stable Diffusion, otra notable herramienta de s\u00edntesis de im\u00e1genes de IA. .<\/p>\n
Andersen, cuya demanda colectiva propuesta podr\u00eda afectar a todos los artistas, tiene alrededor de un mes para modificar su demanda para \u00abdeclarar de manera plausible que los productos de inteligencia artificial de los demandados permiten a los usuarios crear nuevas obras haciendo referencia expresa a las obras de Andersen por su nombre\u00bb, si quiere \u00ablas inferencias\u00bb. en su denuncia \u00absobre c\u00f3mo y cu\u00e1nto del contenido protegido de Andersen permanece en Stable Diffusion o es utilizado por los productos finales de IA\u00bb para \u00abser m\u00e1s fuerte\u00bb, recomend\u00f3 un juez.<\/p>\n
En otras palabras, seg\u00fan las leyes de derechos de autor actuales, Andersen probablemente tendr\u00e1 dificultades para ganar su batalla legal si no muestra al tribunal qu\u00e9 im\u00e1genes espec\u00edficas protegidas por derechos de autor se usaron para entrenar modelos de IA y demuestra que esos modelos usaron esas im\u00e1genes espec\u00edficas para escupir arte que parece exactamente como el de ella. Citar ejemplos espec\u00edficos ser\u00e1 importante, dijo un experto legal a TechCrunch, porque argumentar que las herramientas de inteligencia artificial imitan estilos probablemente no funcione, ya que \u00abel estilo ha demostrado ser casi imposible de proteger con derechos de autor\u00bb.<\/p>\n
Los abogados de Andersen dijeron a Ars que su caso es \u00abcomplejo\u00bb, pero siguen confiando en que ella puede ganar, posiblemente porque, como dijeron otros expertos a The Atlantic, podr\u00eda demostrar que \u00ablos programas de IA generativa pueden retener una cantidad sorprendente de informaci\u00f3n\u00bb. sobre una imagen en sus datos de entrenamiento, a veces lo suficiente como para reproducirla casi a la perfecci\u00f3n\u00bb. Pero podr\u00eda fracasar si el tribunal decide que el uso de datos para entrenar modelos de IA es un uso leg\u00edtimo de las obras de los artistas, una cuesti\u00f3n legal que a\u00fan no est\u00e1 clara.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ Una imagen OpenAI creada con DALL-E 3. Los artistas han pasado el a\u00f1o pasado luchando contra empresas que han estado entrenando generadores de im\u00e1genes de IA (incluidas herramientas…<\/p>\n","protected":false},"author":1,"featured_media":870155,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[193,2113,7677,1187,81733,28901,9439,8,10010,459,7671,2964],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/870154"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=870154"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/870154\/revisions"}],"predecessor-version":[{"id":870156,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/870154\/revisions\/870156"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/870155"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=870154"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=870154"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=870154"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}