El Departamento de Justicia realiza el primer arresto conocido por CSAM generado por IA


El Departamento de Justicia de Estados Unidos arrestó a un hombre de Wisconsin la semana pasada por generar y distribuir material de abuso sexual infantil (CSAM) generado por IA. Hasta donde sabemos, este es el primer caso de este tipo en el que el Departamento de Justicia busca establecer un precedente judicial de que los materiales de explotación siguen siendo ilegales incluso cuando no se utilizó a niños para crearlos. «En pocas palabras, el CSAM generado por IA sigue siendo CSAM», escribió la Fiscal General Adjunta Lisa Monaco en un comunicado de prensa.

El Departamento de Justicia dice que el ingeniero de software Steven Anderegg, de 42 años, de Holmen, WI, utilizó una bifurcación del generador de imágenes de IA de código abierto Stable Diffusion para crear las imágenes, que luego utilizó para intentar atraer a un niño menor de edad a situaciones sexuales. Este último probablemente desempeñará un papel central en el eventual juicio por los cuatro cargos de “producir, distribuir y poseer representaciones visuales obscenas de menores involucrados en conductas sexualmente explícitas y transferir material obsceno a un menor de 16 años”.

El gobierno dice que las imágenes de Anderegg mostraban a «menores desnudos o parcialmente vestidos mostrando o tocando lascivamente sus genitales o manteniendo relaciones sexuales con hombres». El DOJ afirma que utilizó indicaciones específicas, incluidas indicaciones negativas (orientación adicional para el modelo de IA, diciéndole qué no producir) para estimular al generador a producir el CSAM.

Los generadores de imágenes basados ​​en la nube como Midjourney y DALL-E 3 tienen protecciones contra este tipo de actividad, pero Ars Técnica informa que Anderegg supuestamente usó Stable Diffusion 1.5, una variante con menos límites. Stability AI le dijo a la publicación que la bifurcación fue producida por Runway ML.

Según el Departamento de Justicia, Anderegg se comunicó en línea con el chico de 15 años y le describió cómo utilizó el modelo de IA para crear las imágenes. La agencia dice que el acusado envió mensajes directos al adolescente en Instagram, incluidas varias imágenes de IA de “menores mostrando lascivamente sus genitales”. Hay que reconocer que Instagram denunció las imágenes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que alertó a las autoridades.

Anderegg podría enfrentar entre cinco y 70 años de prisión si es declarado culpable de los cuatro cargos. Actualmente se encuentra bajo custodia federal antes de una audiencia programada para el 22 de mayo.

El caso cuestionará la idea que algunos pueden sostener de que la naturaleza ilegal del CSAM se basa exclusivamente en los niños explotados en su creación. Aunque el CSAM digital generado por IA no involucra a ningún ser humano vivo (aparte del que ingresa las indicaciones), aún podría normalizar y alentar el material, o usarse para atraer a los niños a situaciones depredadoras. Esto parece ser algo que los federales quieren aclarar a medida que la tecnología avanza rápidamente y gana popularidad.

«La tecnología puede cambiar, pero nuestro compromiso de proteger a los niños no cambiará», escribió el diputado AG Mónaco. “El Departamento de Justicia perseguirá agresivamente a quienes produzcan y distribuyan material sobre abuso sexual infantil (o CSAM, por sus siglas en inglés) sin importar cómo se haya creado ese material. En pocas palabras, el CSAM generado por IA sigue siendo CSAM, y responsabilizaremos a quienes explotan la IA para crear imágenes obscenas, abusivas y cada vez más fotorrealistas de niños”.



Source link-47