Los usuarios de 4chan manipulan herramientas de inteligencia artificial para desatar un torrente de imágenes racistas


Aurich Lawson | imágenes falsas

A pesar de los intentos de las principales empresas de inteligencia artificial de impedir que los usuarios conviertan los generadores de imágenes de inteligencia artificial en motores de contenido racista, muchos usuarios de 4chan todavía están recurriendo a estas herramientas para «inundar rápidamente Internet con basura racista», informó 404 Media.

404 Media descubrió un hilo de 4chan donde los usuarios recomendaban varias herramientas de IA, incluidas Stable Diffusion y DALL-E, pero vinculadas específicamente al generador de texto a imagen de Bing AI (que funciona con DALL-E 3) como un «método rápido». Después de encontrar la herramienta adecuada (que también podría ser una herramienta de edición de fotografías más tradicional como Photoshop), se indica a los usuarios que agreguen leyendas incendiarias y compartan las imágenes en las redes sociales para crear una avalancha de imágenes racistas en línea.

Haga subtítulos «divertidos, provocativos», instruye a los usuarios en el hilo. Utilice «mensajes redpilling (judíos involucrados en el 11 de septiembre)» que sean «fáciles de entender».

404 Media citó ejemplos utilizados en una guía visual publicada en el hilo de 4chan alojado en Imgur. Uno presentaba una «imagen que muestra a la rana Pepe llorando con una aguja al lado del brazo y una pistola apuntando a su cabeza», donde el guía sugirió la leyenda «vacunas impuestas por la violencia». Otro generó una imagen de «dos hombres negros con cadenas de oro persiguiendo a una mujer blanca», recomendando que el usuario agregara un «mensaje redpilling».

Quizás porque la herramienta de Bing AI aparentemente se ha considerado el método más rápido, potencialmente se ha convertido en la herramienta más popular del hilo. 404 Media concluyó que—»a juzgar por el formato cuadrado predeterminado de las imágenes, la resolución uniforme de 1024 x 1024″—»la mayoría de las imágenes en el hilo parecen haber sido generadas con Bing», y luego difundidas en plataformas de redes sociales, incluidas Telegram, X (anteriormente Twitter) e Instagram.

No está claro qué medidas han tomado los fabricantes de los generadores de imágenes de IA aparentemente favorecidos por los usuarios de 4chan para bloquear los métodos que, según 404 Media, se utilizaron para eludir los filtros.

Un portavoz de OpenAI le dijo a Ars que la compañía prioriza la seguridad y ha tomado medidas para limitar las salidas de DALL-E, incluidos esfuerzos para limitar que las herramientas generen contenido o imágenes dañinos para solicitudes que solicitan una figura pública por su nombre. El portavoz de OpenAI también confirmó que Microsoft implementa sus propias medidas de seguridad para DALL-E 3.

El portavoz de Microsoft le dijo a Ars que el “Bing Image Creator es una herramienta diseñada para ayudar a inspirar la creatividad de las personas. Como ocurre con cualquier tecnología nueva, algunos están intentando utilizarla de formas no deseadas. Estamos investigando estos informes y tomaremos las medidas necesarias de acuerdo con nuestras política de contenido, que prohíbe la creación de contenido dañino. También contamos con grandes equipos trabajando en el desarrollo de técnicas y sistemas de seguridad en línea con nuestros principios de IA responsable para ayudar a crear un entorno más seguro y seguir comprometidos a convertirlo en una experiencia positiva y útil para los usuarios”.

Stability AI no respondió de inmediato a la solicitud de Ars de hacer comentarios.

En una de las pruebas de 404 Media que intentaban replicar uno de los ejemplos de la guía visual del hilo de 4chan, 404 Media descubrió que Bing rechazó el mensaje «dos hombres negros enojados persiguiendo a una mujer blanca», pero aceptó «dos raperos negros enojados fotorrealistas persiguiendo a una mujer». «

Gran parte de los primeros informes sobre generadores de imágenes de IA criticaron los sesgos racistas y sexistas en los algoritmos de los generadores de imágenes, y los fabricantes de IA rápidamente prometieron detectar y eliminar esos sesgos. Cuando Vice descubrió que DALL-E podría usarse para generar «resultados predeciblemente racistas y sexistas» durante una versión de investigación limitada de la herramienta de inteligencia artificial, un portavoz de OpenAI le dijo a Placa base que la compañía había implementado salvaguardias para el sistema DALL-E que estarían bien. -sintonizado en el futuro.

«Nuestro equipo incorporó mitigaciones para evitar resultados dañinos, seleccionando los datos previos al entrenamiento, desarrollando filtros e implementando un monitoreo tanto humano como automatizado de las imágenes generadas», dijo el portavoz de OpenAI a Vice en 2022. «En el futuro, estamos trabajando para medir cómo Nuestros modelos podrían detectar sesgos en los datos de entrenamiento y explorar cómo herramientas como el ajuste fino y nuestras técnicas de alineación pueden ayudar a abordar sesgos particulares, entre otras áreas de investigación en este espacio”.

El informe de 404 Media muestra lo que puede suceder cuando los racistas manipulan un algoritmo ya sesgado. Los resultados pueden ser un torrente de imágenes ofensivas desatadas en línea, quizás generadas más rápidamente por la IA que nunca y potencialmente permitiendo que el contenido más oscuro de 4chan se derrame con más frecuencia en las plataformas más populares.

No está claro cómo responderán los líderes de IA como Microsoft y OpenAI, pero según 404 Media, «esto significa que actualmente estamos obteniendo lo peor de ambos mundos de Bing, una herramienta de IA que se negará a generar un pezón pero que está sobrecargando a los racistas de 4chan».

Esta historia se ha actualizado para incluir comentarios de portavoces de OpenAI y Microsoft.



Source link-49