generado – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Wed, 22 May 2024 08:16:13 +0000 es hourly 1 https://wordpress.org/?v=6.5.4 El Departamento de Justicia realiza el primer arresto conocido por CSAM generado por IA https://magazineoffice.com/el-departamento-de-justicia-realiza-el-primer-arresto-conocido-por-csam-generado-por-ia/ https://magazineoffice.com/el-departamento-de-justicia-realiza-el-primer-arresto-conocido-por-csam-generado-por-ia/#respond Wed, 22 May 2024 08:16:10 +0000 https://magazineoffice.com/el-departamento-de-justicia-realiza-el-primer-arresto-conocido-por-csam-generado-por-ia/

El Departamento de Justicia de Estados Unidos arrestó a un hombre de Wisconsin la semana pasada por generar y distribuir material de abuso sexual infantil (CSAM) generado por IA. Hasta donde sabemos, este es el primer caso de este tipo en el que el Departamento de Justicia busca establecer un precedente judicial de que los materiales de explotación siguen siendo ilegales incluso cuando no se utilizó a niños para crearlos. «En pocas palabras, el CSAM generado por IA sigue siendo CSAM», escribió la Fiscal General Adjunta Lisa Monaco en un comunicado de prensa.

El Departamento de Justicia dice que el ingeniero de software Steven Anderegg, de 42 años, de Holmen, WI, utilizó una bifurcación del generador de imágenes de IA de código abierto Stable Diffusion para crear las imágenes, que luego utilizó para intentar atraer a un niño menor de edad a situaciones sexuales. Este último probablemente desempeñará un papel central en el eventual juicio por los cuatro cargos de “producir, distribuir y poseer representaciones visuales obscenas de menores involucrados en conductas sexualmente explícitas y transferir material obsceno a un menor de 16 años”.

El gobierno dice que las imágenes de Anderegg mostraban a «menores desnudos o parcialmente vestidos mostrando o tocando lascivamente sus genitales o manteniendo relaciones sexuales con hombres». El DOJ afirma que utilizó indicaciones específicas, incluidas indicaciones negativas (orientación adicional para el modelo de IA, diciéndole qué no producir) para estimular al generador a producir el CSAM.

Los generadores de imágenes basados ​​en la nube como Midjourney y DALL-E 3 tienen protecciones contra este tipo de actividad, pero Ars Técnica informa que Anderegg supuestamente usó Stable Diffusion 1.5, una variante con menos límites. Stability AI le dijo a la publicación que la bifurcación fue producida por Runway ML.

Según el Departamento de Justicia, Anderegg se comunicó en línea con el chico de 15 años y le describió cómo utilizó el modelo de IA para crear las imágenes. La agencia dice que el acusado envió mensajes directos al adolescente en Instagram, incluidas varias imágenes de IA de “menores mostrando lascivamente sus genitales”. Hay que reconocer que Instagram denunció las imágenes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que alertó a las autoridades.

Anderegg podría enfrentar entre cinco y 70 años de prisión si es declarado culpable de los cuatro cargos. Actualmente se encuentra bajo custodia federal antes de una audiencia programada para el 22 de mayo.

El caso cuestionará la idea que algunos pueden sostener de que la naturaleza ilegal del CSAM se basa exclusivamente en los niños explotados en su creación. Aunque el CSAM digital generado por IA no involucra a ningún ser humano vivo (aparte del que ingresa las indicaciones), aún podría normalizar y alentar el material, o usarse para atraer a los niños a situaciones depredadoras. Esto parece ser algo que los federales quieren aclarar a medida que la tecnología avanza rápidamente y gana popularidad.

«La tecnología puede cambiar, pero nuestro compromiso de proteger a los niños no cambiará», escribió el diputado AG Mónaco. “El Departamento de Justicia perseguirá agresivamente a quienes produzcan y distribuyan material sobre abuso sexual infantil (o CSAM, por sus siglas en inglés) sin importar cómo se haya creado ese material. En pocas palabras, el CSAM generado por IA sigue siendo CSAM, y responsabilizaremos a quienes explotan la IA para crear imágenes obscenas, abusivas y cada vez más fotorrealistas de niños”.



Source link-47

]]>
https://magazineoffice.com/el-departamento-de-justicia-realiza-el-primer-arresto-conocido-por-csam-generado-por-ia/feed/ 0
Hombre de Wisconsin arrestado por supuestamente crear material de abuso sexual infantil generado por IA https://magazineoffice.com/hombre-de-wisconsin-arrestado-por-supuestamente-crear-material-de-abuso-sexual-infantil-generado-por-ia/ https://magazineoffice.com/hombre-de-wisconsin-arrestado-por-supuestamente-crear-material-de-abuso-sexual-infantil-generado-por-ia/#respond Wed, 22 May 2024 07:37:02 +0000 https://magazineoffice.com/hombre-de-wisconsin-arrestado-por-supuestamente-crear-material-de-abuso-sexual-infantil-generado-por-ia/

Un ingeniero de software de Wisconsin fue arrestado el lunes por supuestamente crear y distribuir miles de imágenes de material de abuso sexual infantil (CSAM) generadas por IA.

Los documentos judiciales describen a Steven Anderegg como «extremadamente conocedor de la tecnología», con experiencia en informática y «décadas de experiencia en ingeniería de software». Anderegg, de 42 años, está acusado de enviar imágenes de menores desnudos generadas por IA a un niño de 15 años a través de Instagram DM. Anderegg fue puesto en el radar de las fuerzas del orden después de que el Centro Nacional para Niños Desaparecidos y Explotados señalara los mensajes, que supuestamente envió en octubre de 2023.

Según información obtenida por las autoridades de Instagram, Anderegg publicó una historia de Instagram en 2023 “que consiste en una imagen GenAI realista de menores vistiendo ropa de cuero con temática BDSM” y alentó a otros a “verificar” lo que se estaban perdiendo en Telegram. En mensajes privados con otros usuarios de Instagram, Anderegg supuestamente «discutió su deseo de tener relaciones sexuales con niños prepúberes» y le dijo a un usuario de Instagram que tenía «toneladas» de otras imágenes CSAM generadas por IA en su Telegram.

Anderegg supuestamente comenzó a enviar estas imágenes a otro usuario de Instagram después de enterarse de que solo tenía 15 años. “Cuando este menor dio a conocer su edad, el acusado no lo rechazó ni indagó más. En cambio, no perdió el tiempo en describirle a este menor cómo crea imágenes GenAI sexualmente explícitas y le envió contenido personalizado”, afirman los documentos de la acusación.

Cuando las fuerzas del orden registraron la computadora de Anderegg, encontraron más de 13.000 imágenes “con cientos, si no miles, de estas imágenes que mostraban a menores prepúberes desnudos o semidesnudos”, según los fiscales. Los documentos de acusación dicen que Anderegg creó las imágenes en el modelo de texto a imagen Stable Diffusion, un producto creado por Stability AI, y utilizó «indicaciones extremadamente específicas y explícitas para crear estas imágenes». Anderegg también supuestamente utilizó «indicaciones negativas» para evitar la creación de imágenes que representaran a adultos y utilizó complementos de Stable Diffusion de terceros que «se especializaban en producir genitales».

El mes pasado, varias empresas tecnológicas importantes, incluidas Google, Meta, OpenAI, Microsoft y Amazon, dijeron que revisarían sus datos de entrenamiento de IA para CSAM. Las compañías comprometidos con un nuevo conjunto de principios que incluyen modelos de “pruebas de estrés” para garantizar que no estén creando CSAM. Stability AI también se adhirió a los principios.

Según los fiscales, esta no es la primera vez que Anderegg entra en contacto con las autoridades por su presunta posesión de CSAM a través de una red de igual a igual. En 2020, alguien que usaba Internet en la casa de Anderegg en Wisconsin intentó descargar varios archivos de CSAM conocido, afirman los fiscales. Las fuerzas del orden registraron su casa en 2020 y Anderegg admitió tener una red peer-to-peer en su computadora y restablecer frecuentemente su módem, pero no fue acusado.

En un escrito que respalda la prisión preventiva de Anderegg, el gobierno señaló que ha trabajado como ingeniero de software durante más de 20 años, y su CV incluye un trabajo reciente en una startup, donde utilizó su «excelente conocimiento técnico en la formulación de modelos de IA».

Si es declarado culpable, Anderegg enfrenta hasta 70 años de prisión, aunque los fiscales dicen que “el rango de sentencia recomendado puede ser tan alto como cadena perpetua”.



Source link-37

]]>
https://magazineoffice.com/hombre-de-wisconsin-arrestado-por-supuestamente-crear-material-de-abuso-sexual-infantil-generado-por-ia/feed/ 0
“El CSAM generado por IA sigue siendo CSAM”, dice el Departamento de Justicia tras un inusual arresto https://magazineoffice.com/el-csam-generado-por-ia-sigue-siendo-csam-dice-el-departamento-de-justicia-tras-un-inusual-arresto/ https://magazineoffice.com/el-csam-generado-por-ia-sigue-siendo-csam-dice-el-departamento-de-justicia-tras-un-inusual-arresto/#respond Wed, 22 May 2024 02:11:14 +0000 https://magazineoffice.com/el-csam-generado-por-ia-sigue-siendo-csam-dice-el-departamento-de-justicia-tras-un-inusual-arresto/

El Departamento de Justicia de EE. UU. ha comenzado a tomar medidas enérgicas contra el uso de generadores de imágenes de IA para producir materiales de abuso sexual infantil (CSAM).

El lunes, el Departamento de Justicia arrestó a Steven Anderegg, un hombre de Wisconsin de 42 años «extremadamente conocedor de la tecnología» que supuestamente usó Stable Diffusion para crear «miles de imágenes realistas de menores prepúberes», que luego se distribuyeron en Instagram y Telegram.

Los policías fueron alertados sobre las supuestas actividades de Anderegg después de que Instagram señalara mensajes directos que se enviaron en la cuenta de Instagram de Anderegg a un niño de 15 años. Instagram informó de los mensajes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que posteriormente alertó a las autoridades.

Durante el intercambio de Instagram, el Departamento de Justicia descubrió que Anderegg envió imágenes de inteligencia artificial sexualmente explícitas de menores poco después de que el adolescente diera a conocer su edad, alegando que «la única explicación razonable para enviar estas imágenes era atraer sexualmente al niño».

Según la acusación del Departamento de Justicia, Anderegg es un ingeniero de software con «experiencia profesional trabajando con IA». Debido a su «habilidad especial» en IA generativa (GenAI), supuestamente pudo generar el CSAM utilizando una versión de Stable Diffusion, «junto con una interfaz gráfica de usuario y complementos especiales creados por otros usuarios de Stable Diffusion que se especializaban en produciendo genitales.»

Después de que Instagram informara sobre los mensajes de Anderegg al menor, los policías confiscaron la computadora portátil de Anderegg y encontraron «más de 13,000 imágenes GenAI, con cientos, si no miles, de estas imágenes que representan a menores prepúberes desnudos o semidesnudos mostrando o tocando lascivamente sus genitales» o «participando en relaciones sexuales con hombres.»

En sus mensajes al adolescente, Anderegg aparentemente «se jactaba» de su habilidad para generar CSAM, según la acusación. El DOJ alegó que la evidencia de su computadora portátil mostraba que Anderegg «usó indicaciones extremadamente específicas y explícitas para crear estas imágenes», incluidas «indicaciones ‘negativas’ específicas, es decir, indicaciones que dirigen el modelo GenAI sobre qué no incluir en el contenido generado. «Para evitar crear imágenes que representen a adultos». Estas indicaciones de acceso estaban almacenadas en su computadora, alegó el Departamento de Justicia.

Anderegg se encuentra actualmente bajo custodia federal y ha sido acusado de producción, distribución y posesión de CSAM generado por IA, así como de «transferir material obsceno a un menor de 16 años», según la acusación.

Debido a que el Departamento de Justicia sospechaba que Anderegg tenía la intención de utilizar CSAM generado por IA para preparar a un menor, el Departamento de Justicia argumenta que «no existen condiciones de liberación» que puedan impedirle representar un «peligro significativo» para su comunidad mientras el tribunal reflexiona sobre su caso. El Departamento de Justicia advirtió al tribunal que es muy probable que cualquier contacto futuro con menores pase desapercibido, ya que Anderegg aparentemente es lo suficientemente experto en tecnología como para ocultar cualquier intento futuro de enviar a menores CSAM generado por IA.

«Estudió informática y tiene décadas de experiencia en ingeniería de software», dice la acusación. «Si bien el monitoreo por computadora puede abordar el peligro que representan los delincuentes menos sofisticados, los antecedentes del acusado brindan amplias razones para concluir que podría eludir tales restricciones si así lo decidiera. Y si lo hiciera, cualquier conducta reincidente probablemente pasaría desapercibida».

Si es declarado culpable de los cuatro cargos, podría enfrentar «una pena máxima legal total de 70 años de prisión y un mínimo obligatorio de cinco años de prisión», dijo el Departamento de Justicia. En parte debido a su «habilidad especial en GenAI», el Departamento de Justicia, que describió sus pruebas contra Anderegg como «sólidas», sugirió que podrían recomendar un rango de sentencia «tan alto como cadena perpetua».

Al anunciar el arresto de Anderegg, la Fiscal General Adjunta Lisa Monaco dejó claro que la creación de CSAM generado por IA es ilegal en Estados Unidos.

«La tecnología puede cambiar, pero nuestro compromiso de proteger a los niños no», afirmó Mónaco. «El Departamento de Justicia perseguirá agresivamente a quienes produzcan y distribuyan material de abuso sexual infantil (o CSAM, por sus siglas en inglés) sin importar cómo se creó ese material. En pocas palabras, el CSAM generado por IA sigue siendo CSAM, y responsabilizaremos a quienes exploten la IA para crear Imágenes de niños obscenas, abusivas y cada vez más fotorrealistas».



Source link-49

]]>
https://magazineoffice.com/el-csam-generado-por-ia-sigue-siendo-csam-dice-el-departamento-de-justicia-tras-un-inusual-arresto/feed/ 0
Los creadores del corto impulsado por Sora explican las fortalezas y limitaciones del video generado por IA https://magazineoffice.com/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia/ https://magazineoffice.com/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia/#respond Mon, 29 Apr 2024 02:26:24 +0000 https://magazineoffice.com/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia/

La herramienta de generación de vídeo de OpenAI, Sora, tomó por sorpresa a la comunidad de IA en febrero con un vídeo fluido y realista que parece estar muy por delante de la competencia. Pero el debut cuidadosamente organizado omitió muchos detalles, detalles que fueron completados por un cineasta al que se le dio acceso temprano para crear un corto con Sora.

Shy Kids es un equipo de producción digital con sede en Toronto que fue elegido por OpenAI como uno de los pocos para producir cortometrajes esencialmente con fines promocionales de OpenAI, aunque se les dio una considerable libertad creativa para crear «cabeza de aire». En una entrevista con el medio de noticias de efectos visuales fxguide, el artista de postproducción Patrick Cederberg describió “realmente usar a Sora” como parte de su trabajo.

Quizás la conclusión más importante para la mayoría es simplemente esta: si bien la publicación de OpenAI que destaca los cortos permite al lector asumir que surgieron más o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con un guión gráfico sólido, edición, corrección de color, y trabajos posteriores como rotoscopia y VFX. Así como Apple dice «filmado con iPhone» pero no muestra la configuración del estudio, la iluminación profesional y el trabajo de color después del hecho, la publicación de Sora solo habla de lo que permite hacer a las personas, no de cómo lo hicieron realmente.

La entrevista de Cederberg es interesante y nada técnica, así que si estás interesado en algo, dirígete a fxguide y léela. Pero aquí hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo quizás sea un paso de gigante menor de lo que pensábamos.

El control sigue siendo lo más deseable y también lo más difícil de alcanzar en este momento. … Lo más cerca que pudimos llegar fue simplemente ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, así como el tipo de globo, fue nuestra forma de lograr la coherencia porque, plano a plano/generación en generación, todavía no existe la característica establecida para un control total sobre la coherencia.

En otras palabras, cuestiones que son simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los demás. Obviamente, eso podría cambiar, pero ciertamente es mucho más laborioso en este momento.

Las salidas de Sora también debían ser vigiladas para detectar elementos no deseados: Cederberg describió cómo el modelo generaba rutinariamente una cara en el globo que el personaje principal tiene como cabeza, o una cuerda colgando del frente. Estos debían eliminarse en la publicación, otro proceso que requería mucho tiempo, si no recibían el mensaje para excluirlos.

La sincronización y los movimientos precisos de los personajes o de la cámara no son realmente posibles: «Hay un poco de control temporal sobre dónde ocurren estas diferentes acciones en la generación real, pero no es preciso… es una especie de toma en la oscuridad», dijo Cederberg.

Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panorámica hacia arriba en el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo renderizó una toma compuesta en orientación vertical y recortó una panorámica en la posproducción. Los clips generados también a menudo estaban en cámara lenta sin ningún motivo en particular.

Ejemplo de un disparo como salió de Sora y cómo acabó en el corto. Créditos de imagen: niños tímidos

De hecho, el uso del lenguaje cotidiano del cine, como “panorámica hacia la derecha” o “plano de seguimiento”, era inconsistente en general, dijo Cederberg, lo que el equipo encontró bastante sorprendente.

«Los investigadores, antes de acercarse a los artistas para que jugaran con la herramienta, en realidad no habían pensado como cineastas», dijo.

Como resultado, el equipo hizo cientos de generaciones, cada una de 10 a 20 segundos, y terminó usando solo un puñado. Cederberg estimó la proporción en 300:1, pero, por supuesto, probablemente a todos nos sorprendería la proporción en una sesión normal.

De hecho, el equipo hizo un pequeño video detrás de escena explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, los comentarios son bastante críticos con todo el esfuerzo, aunque no tan vituperantes como el anuncio asistido por IA que vimos ridiculizado recientemente.

El último aspecto interesante tiene que ver con los derechos de autor: si le pides a Sora que te dé un clip de “Star Wars”, se negará. Y si intentas eludirlo con “un hombre vestido con una espada láser en una nave espacial retrofuturista”, también se negará, ya que mediante algún mecanismo reconoce lo que estás tratando de hacer. También se negó a hacer un “plano tipo Aronofsky” o un “zoom de Hitchcock”.

Por un lado, tiene mucho sentido. Pero sí plantea la pregunta: si Sora sabe cuáles son, ¿eso significa que el modelo fue entrenado en ese contenido para reconocer mejor que está infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto, hasta el punto del absurdo, como ocurre con Entrevista de la CTO Mira Murati con Joanna Stern – Es casi seguro que nunca nos lo dirá.

En cuanto a Sora y su uso en la realización cinematográfica, es claramente una herramienta poderosa y útil en su lugar, pero su lugar no es «crear películas de la nada». Todavía. Como dijo una vez otro villano, «eso viene después».





Source link-48

]]>
https://magazineoffice.com/los-creadores-del-corto-impulsado-por-sora-explican-las-fortalezas-y-limitaciones-del-video-generado-por-ia/feed/ 0
Garry’s Mod eliminará 20 años de contenido generado por usuarios de Nintendo https://magazineoffice.com/garrys-mod-eliminara-20-anos-de-contenido-generado-por-usuarios-de-nintendo/ https://magazineoffice.com/garrys-mod-eliminara-20-anos-de-contenido-generado-por-usuarios-de-nintendo/#respond Thu, 25 Apr 2024 10:44:57 +0000 https://magazineoffice.com/garrys-mod-eliminara-20-anos-de-contenido-generado-por-usuarios-de-nintendo/

Hay algunos juegos que están tan entrelazados con la estructura de Steam que es difícil imaginar la plataforma sin ellos. Mod de Garry es uno, un sandbox donde todo vale y que ha formado la columna vertebral de Steam Workshop desde sus inicios. Famoso por una mezcolanza formada por varias piezas de contenido generado por el usuario, su desarrollador ahora está trabajando para eliminar 20 años de artículos de Nintendo de su taller.

Es difícil resumir exactamente qué es Garry’s Mod simplemente porque combina muchas cosas bajo un mismo techo. Es un sandbox, es una herramienta de modificación, es un juego cooperativo, es un juego FPS. Son todos ellos y ninguno de ellos, y su capacidad de forma libre para agregar casi cualquier cosa, desde conversiones totales hasta paquetes de recursos simples a través de Steam Workshop, ha hecho que los jugadores carguen muchos elementos y personajes de otras propiedades.

Una empresa parece haber tenido suficiente y ha emitido una solicitud de eliminación al desarrollador Facepunch Studios. En una publicación titulada Cosas de Nintendo en Steam Workshop, el desarrollador afirma que eliminará todo lo relacionado con la potencia japonesa.

“Algunos de ustedes habrán notado que ciertos artículos del taller relacionados con Nintendo han sido eliminados recientemente. Esto no es un error, los derribos vinieron de Nintendo”, dice Facepunch Studios. “Honestamente, esto es bastante justo. Este es el contenido de Nintendo y lo que permiten y no permiten depende de ellos. No quieren que juegues con esas cosas en Garry’s Mod; esa es su decisión, tenemos que respetarla y eliminar todo lo que podamos».

Sin embargo, esto no parece ser una tarea fácil para la empresa, ya que hay más de 20 años de cargas para clasificar y eliminar. Como resultado, el desarrollador ha hecho un pequeño pedido de ayuda a la comunidad más adelante en el comunicado. «Si quieres ayudarnos eliminando tus cargas relacionadas con Nintendo y no volver a subirlas nunca más, eso nos ayudaría mucho».

Gracias a los informes de Kotaku, sabemos que es posible que algunas propiedades de Nintendo ya se hayan eliminado de Garry’s Mod Steam Workshop hace un par de meses. No se sabe en este momento si ese fue el inicio de este proceso o si está relacionado con una solicitud de eliminación separada.

Miniatura de YouTube

Puedes dirigirte a Steam para ver la declaración completa, o si prefieres algo diferente en el campo, nuestra guía de los mejores juegos de construcción para PC te llevará en la dirección correcta. También puedes echar un vistazo a nuestra guía de los mejores juegos antiguos que aún puedes jugar, para darle un toque de ese encanto retro.

También puede seguirnos en Google News para obtener noticias, reseñas y guías diarias sobre juegos de PC, o utilizar nuestro rastreador de ofertas de PCGN para obtener algunas gangas.



Source link-9

]]>
https://magazineoffice.com/garrys-mod-eliminara-20-anos-de-contenido-generado-por-usuarios-de-nintendo/feed/ 0
Al autor se le otorgan derechos de autor sobre un libro con texto generado por IA, con un giro https://magazineoffice.com/al-autor-se-le-otorgan-derechos-de-autor-sobre-un-libro-con-texto-generado-por-ia-con-un-giro/ https://magazineoffice.com/al-autor-se-le-otorgan-derechos-de-autor-sobre-un-libro-con-texto-generado-por-ia-con-un-giro/#respond Fri, 19 Apr 2024 00:13:36 +0000 https://magazineoffice.com/al-autor-se-le-otorgan-derechos-de-autor-sobre-un-libro-con-texto-generado-por-ia-con-un-giro/

imágenes falsas

En octubre pasado, recibí un correo electrónico con una frase inicial increíble: «Esta mañana disparé una bomba nuclear contra la Oficina de Derechos de Autor de Estados Unidos».

El mensaje era de Elisa Shupe, una veterana retirada del ejército estadounidense de 60 años que acababa de presentar un registro de derechos de autor para una novela que ella misma había publicado recientemente. Había utilizado ampliamente ChatGPT de OpenAI mientras escribía el libro. Su solicitud fue un intento de obligar a la Oficina de Derechos de Autor de EE. UU. a revocar su política sobre el trabajo realizado con IA, que generalmente exige que los posibles titulares de derechos de autor excluyan los elementos generados por máquinas.

Ese disparo inicial no detonó (una semana después, la USCO rechazó la solicitud de Shupe), pero finalmente ganó. La agencia cambió de rumbo a principios de este mes después de que Shupe apeló y le concedió el registro de derechos de autor para Maquinaciones de IA: redes enredadas y palabras mecanografiadas, una obra de autoficción autoeditada en Amazon bajo el seudónimo de Ellen Rae.

La novela se basa en la agitada vida de Shupe, incluida su defensa de un reconocimiento de género más inclusivo. Su registro ofrece una idea de cómo la USCO está lidiando con la inteligencia artificial, especialmente a medida que más personas incorporan herramientas de inteligencia artificial al trabajo creativo. Es una de las primeras obras creativas en recibir derechos de autor por la disposición del texto generado por IA.

«Estamos viendo que la Oficina de Derechos de Autor lucha por determinar dónde trazar el límite», dice la abogada de propiedad intelectual Erica Van Loon, socia de Nixon Peabody. El caso de Shupe resalta algunos de los matices de esa lucha, porque la aprobación de su registro conlleva una importante advertencia.

El aviso de la USCO que otorga a Shupe el registro de derechos de autor de su libro no la reconoce como autora del texto completo, como es convencional para las obras escritas. En cambio, se la considera la autora de la “selección, coordinación y disposición del texto generado por inteligencia artificial”. Esto significa que nadie puede copiar el libro sin permiso, pero las oraciones y párrafos en sí no tienen derechos de autor y, en teoría, podrían reorganizarse y volver a publicarse como un libro diferente.

La agencia retrocedió el registro de derechos de autor al 10 de octubre, el día en que Shupe intentó registrar su trabajo originalmente. Se negó a comentar sobre esta historia. «La Oficina de Derechos de Autor no comenta sobre registros de derechos de autor específicos ni sobre solicitudes de registro pendientes», dice Nora Scheland, portavoz de la agencia. La orden ejecutiva del presidente Biden sobre IA el otoño pasado pedía a la Oficina de Patentes y Marcas de EE. UU. que hiciera recomendaciones sobre derechos de autor e IA a la Casa Blanca en consulta con la Oficina de Derechos de Autor, incluido el “alcance de la protección de las obras producidas con IA”.

Aunque el registro limitado de derechos de autor de Shupe es notable, originalmente pidió a la USCO que abriera un camino más significativo para el reconocimiento de derechos de autor para el material generado por IA. “Busco proteger los derechos de autor del material generado y asistido por IA bajo una exención de la ADA para mis muchas discapacidades”, escribió en su solicitud de derechos de autor original.

Shupe cree fervientemente que sólo pudo completar su libro con la ayuda de herramientas de inteligencia artificial generativa. Ella dice que el Departamento de Asuntos de Veteranos la ha evaluado como 100 por ciento discapacitada y tiene dificultades para escribir debido a un deterioro cognitivo relacionado con afecciones que incluyen el trastorno bipolar, el trastorno límite de la personalidad y una malformación del tronco cerebral.



Source link-49

]]>
https://magazineoffice.com/al-autor-se-le-otorgan-derechos-de-autor-sobre-un-libro-con-texto-generado-por-ia-con-un-giro/feed/ 0
‘¿Hablas jodidamente en serio?’: La polémica estalla luego de que un video generado por IA sea declarado ganador del concurso de animación de Pink Floyd https://magazineoffice.com/hablas-jodidamente-en-serio-la-polemica-estalla-luego-de-que-un-video-generado-por-ia-sea-declarado-ganador-del-concurso-de-animacion-de-pink-floyd/ https://magazineoffice.com/hablas-jodidamente-en-serio-la-polemica-estalla-luego-de-que-un-video-generado-por-ia-sea-declarado-ganador-del-concurso-de-animacion-de-pink-floyd/#respond Mon, 08 Apr 2024 21:46:04 +0000 https://magazineoffice.com/hablas-jodidamente-en-serio-la-polemica-estalla-luego-de-que-un-video-generado-por-ia-sea-declarado-ganador-del-concurso-de-animacion-de-pink-floyd/

Lo que necesitas saber

  • La banda de rock clásico Pink Floyd realizó un concurso de animación para celebrar el 50 aniversario del álbum Dark Side of the Moon.
  • El 5 de abril, la obra de Damián Gaume para «Any Color You Like» fue anunciada como una de las 10 ganadoras, con un premio de £10.000. El vídeo fue creado utilizando IA generativa.
  • La publicación ha generado controversia, ya que los fanáticos descontentos de Floyd expresan su desdén por el uso de IA generativa «sin alma» que se impone a las piezas animadas a mano por artistas humanos.

El ganador de un concurso de animación con un premio acumulado de 100.000 libras esterlinas ha suscitado una gran controversia. El ícono de la banda de rock clásico Pink Floyd fue el anfitrión del concurso de animación como parte de la celebración en torno al 50 aniversario del álbum Dark Side of the Moon. El video ganador, presentado para la canción «Any Color You Like», fue generado utilizando un modelo de Difusión Estable combinado con ajustes realizados en Blender por el artista 3D Damián Gaume.

El Cuenta Twitter de Pink Floyd compartió un video detrás de escena de Gaume que describe la técnica utilizada para generar el video y declara abiertamente que es IA. El vídeo de Gaume fue uno de los 10 ganadores que compartieron el premio acumulado y ganaron alrededor de £ 10 000.

Ver más