La pesadilla del abuso infantil generada por IA ya está aquí


Los expertos advierten que ahora está en marcha una nueva era horrible de imágenes ultrarrealistas de abuso sexual infantil generadas por inteligencia artificial. Los delincuentes están utilizando modelos de IA generativa de código abierto descargables, que pueden producir imágenes, con efectos devastadores. La tecnología se está utilizando para crear cientos de nuevas imágenes de niños que han sido abusados ​​anteriormente. Los delincuentes están compartiendo conjuntos de datos de imágenes de abuso que pueden usarse para personalizar modelos de IA y están comenzando a vender suscripciones mensuales a material de abuso sexual infantil (CSAM) generado por IA.

Los detalles de cómo se está abusando de la tecnología se incluyen en un nuevo y amplio informe publicado por Internet Watch Foundation (IWF), una organización sin fines de lucro con sede en el Reino Unido que rastrea y elimina contenido abusivo de la web. En junio, la IWF dijo que había encontrado siete URL en la web abierta que contenían material sospechoso de haber sido elaborado por IA. Ahora, su investigación en un foro CSAM de la web oscura, que proporciona una instantánea de cómo se utiliza la IA, ha encontrado casi 3.000 imágenes generadas por IA que la IWF considera ilegales según la ley del Reino Unido.

Según la investigación de la IWF, las imágenes generadas por IA incluyen violaciones de bebés y niños pequeños, niños preadolescentes famosos que sufren abusos y contenido BDSM con adolescentes. «Hemos visto demandas, discusiones y ejemplos reales de material de abuso sexual infantil protagonizado por celebridades», dice Dan Sexton, director de tecnología de la IWF. A veces, dice Sexton, a las celebridades se les reduce la edad para que parezcan niños. En otros casos, las celebridades adultas son retratadas como personas que abusan de niños.

Si bien los informes sobre CSAM generados por IA todavía quedan eclipsados ​​por la cantidad de imágenes y videos de abuso reales que se encuentran en línea, Sexton dice que está alarmado por la velocidad del desarrollo y el potencial que crea para nuevos tipos de imágenes abusivas. Los hallazgos son consistentes con otros grupos que investigan la propagación del CSAM en línea. En una base de datos compartida, investigadores de todo el mundo han identificado 13.500 imágenes de abuso y explotación sexual infantil generadas por IA, le dice a WIRED Lloyd Richardson, director de tecnología de la información del Centro Canadiense para la Protección Infantil. «Eso es sólo la punta del iceberg», dice Richardson.

Una pesadilla realista

La cosecha actual de generadores de imágenes de IA, capaces de producir arte convincente, fotografías realistas y diseños extravagantes, proporciona un nuevo tipo de creatividad y la promesa de cambiar el arte para siempre. También se han utilizado para crear falsificaciones convincentes, como Balenciaga Pope y una versión temprana del arresto de Donald Trump. Los sistemas se basan en grandes volúmenes de imágenes existentes, a menudo extraídas de la web sin permiso, y permiten crear imágenes a partir de simples mensajes de texto. Pedir un “elefante con sombrero” resultará precisamente en eso.

No sorprende que los delincuentes que crean CSAM hayan adoptado herramientas de generación de imágenes. «La forma en que se generan estas imágenes es, por lo general, utilizando software disponible abiertamente», dice Sexton. Los delincuentes a quienes la IWF ha visto hacen referencia con frecuencia a Stable Diffusion, un modelo de IA puesto a disposición por la empresa Stability AI, con sede en el Reino Unido. La empresa no respondió a la solicitud de comentarios de WIRED. En la segunda versión de su software, lanzada a finales del año pasado, la compañía cambió su modelo para dificultar que las personas creen CSAM y otras imágenes de desnudos.

Sexton dice que los delincuentes están utilizando versiones anteriores de modelos de IA y ajustándolas para crear material ilegal de niños. Esto implica alimentar un modelo con imágenes de abuso existentes o fotografías de rostros de personas, lo que permite a la IA crear imágenes de individuos específicos. «Estamos viendo modelos perfeccionados que crean nuevas imágenes de las víctimas existentes», dice Sexton. Los perpetradores están “intercambiando cientos de nuevas imágenes de víctimas existentes” y haciendo solicitudes sobre individuos, dice. Algunos hilos en foros de la web oscura comparten conjuntos de rostros de víctimas, según la investigación, y un hilo se tituló: «Recursos fotográficos para IA y chicas específicas para deepfaking».



Source link-46