El lado oscuro de los generadores de imágenes de IA de código abierto


Ya sea a través del ceño fruncido de alta definición de un chimpancé o de un psicodélico rostro en tonos rosados ​​y rojos. doble de sí mismo, Reuven Cohen utiliza imágenes generadas por IA para captar la atención de las personas. «Siempre me han interesado el arte, el diseño y el vídeo, y disfruto traspasar los límites», dice, pero el consultor con sede en Toronto, que ayuda a las empresas a desarrollar herramientas de inteligencia artificial, también espera crear conciencia sobre los usos más oscuros de la tecnología.

«También se le puede entrenar específicamente para que sea bastante espantoso y malo en una gran variedad de formas», dice Cohen. Es un fanático de la experimentación libre que ha sido desatada por la tecnología de generación de imágenes de código abierto. Pero esa misma libertad permite la creación de imágenes explícitas de mujeres utilizadas para acosar.

Después de que imágenes no consensuadas de Taylor Swift se difundieran recientemente en X, Microsoft agregó nuevos controles a su generador de imágenes. Los modelos de código abierto pueden ser utilizados por casi cualquier persona y, por lo general, no tienen barreras de seguridad. A pesar de los esfuerzos de algunos miembros esperanzados de la comunidad para disuadir los usos explotadores, el código abierto gratuito para todos es casi imposible de controlar, dicen los expertos.

“El código abierto ha impulsado el abuso de imágenes falsas y la pornografía no consensuada. Es imposible endulzarlo o calificarlo”, dice Henry Ajder, quien ha pasado años investigando el uso dañino de la IA generativa.

Ajder dice que, al mismo tiempo que se está convirtiendo en el favorito de investigadores, creativos como Cohen y académicos que trabajan en inteligencia artificial, el software de generación de imágenes de código abierto se ha convertido en la base del porno deepfake. Algunas herramientas basadas en algoritmos de código abierto están diseñadas específicamente para usos lascivos o acosadores, como aplicaciones de “desnudez” que eliminan digitalmente la ropa de las mujeres en imágenes.

Pero muchas herramientas pueden servir tanto para casos de uso legítimos como para casos de acoso. Un popular programa de intercambio de rostros de código abierto es utilizado por personas de la industria del entretenimiento y como la “herramienta elegida por los malos actores” que hacen deepfakes no consensuados, dice Ajder. Se afirma que el generador de imágenes de alta resolución Stable Diffusion, desarrollado por la startup Stability AI, tiene más de 10 millones de usuarios y tiene barreras de seguridad instaladas para evitar la creación explícita de imágenes y políticas que prohíben el uso malicioso. Pero la compañía también abrió una versión del generador de imágenes en 2022 que es personalizable, y las guías en línea explican cómo evitar sus limitaciones integradas.

Mientras tanto, modelos de IA más pequeños conocidos como LoRA facilitan el ajuste de un modelo de Difusión Estable para generar imágenes con un estilo, concepto o pose particular, como la imagen de una celebridad o ciertos actos sexuales. Están ampliamente disponibles en mercados de modelos de IA como Civitai, un sitio comunitario donde los usuarios comparten y descargan modelos. Allí, un creador de un complemento de Taylor Swift instó a otros a no usarlo «para imágenes NSFW». Sin embargo, una vez descargado, su uso queda fuera del control de su creador. «La forma en que funciona el código abierto significa que va a ser bastante difícil impedir que alguien pueda secuestrarlo», dice Ajder.

4chan, el sitio de foros de mensajes basado en imágenes con reputación de moderación caótica, alberga páginas dedicadas a pornografía deepfake no consensuada, según descubrió WIRED, creada con programas disponibles abiertamente y modelos de inteligencia artificial dedicados exclusivamente a imágenes sexuales. Los foros de mensajes de imágenes para adultos están llenos de desnudos no consensuales de mujeres reales generados por IA, desde artistas porno hasta actrices como Cate Blanchett. WIRED también observó a los usuarios de 4chan compartir soluciones para imágenes NSFW utilizando Dall-E 3 de OpenAI.

Ese tipo de actividad ha inspirado a algunos usuarios de comunidades dedicadas a la creación de imágenes mediante IA, incluidas Reddit y Discord, a intentar luchar contra el mar de imágenes pornográficas y maliciosas. Los creadores también expresan su preocupación de que el software gane reputación por sus imágenes NSFW, animando a otros a denunciar imágenes que representan a menores en Reddit y sitios de alojamiento de modelos.





Source link-46