Después de un informe sobre pornografía generado por IA, la Lotería de Washington elimina una aplicación web interactiva


Agrandar / Un usuario del sitio web «Test Drive a Win» de la Lotería de Washington dice que utilizó IA para generar (la versión sin editar) esta imagen con su rostro en un cuerpo en topless.

La Lotería del Estado de Washington eliminó una aplicación web promocional impulsada por inteligencia artificial después de que una madre local informara que el sitio generó una imagen con su rostro en el cuerpo de una mujer en topless.

El sitio web «Test Drive a Win» de la lotería fue diseñado para ayudar a los visitantes a visualizar varias vacaciones de ensueño que podrían pagar con sus ganancias teóricas de la lotería. El sitio incluía la posibilidad de cargar una foto de la cabeza que se integraría en un cuadro generado por IA de cómo se vería usted en esas vacaciones.

Pero Megan (no se proporciona el apellido), una mujer de 50 años de Tumwater, suburbio de Olympia, le dijo al locutor de radio conservador de Seattle, Jason Rantz, que la imagen de sus vacaciones soñadas de «nadar con tiburones» en el sitio web mostraba su rostro encima de una mujer sentada. en una cama con los senos expuestos. El fondo de la imagen generada por IA parece mostrar la cama en una especie de acuario, con peces flotando en el aire y una extensa flora submarina sentada torpemente detrás de las almohadas.

La esquina de la imagen presenta el logotipo de la Lotería de Washington.

«¡Nuestros impuestos están pagando eso! Me quedé completamente conmocionada. Es, cuanto menos, inquietante», le dijo Megan a Rantz. «También creo que quienquiera que haya sido responsable debería ser despedido».

“No queremos que algo como este supuesto suceso vuelva a suceder”

lo no funcional
Agrandar / El sitio web no funcional «Test Drive a Win» tal como apareció el jueves.

En una declaración proporcionada a Ars Technica, un portavoz de la Lotería de Washington dijo que la lotería «trabajó en estrecha colaboración con los desarrolladores de la plataforma de inteligencia artificial para establecer parámetros estrictos que regulen la creación de imágenes». A pesar de esto, el portavoz dijo que fueron notificados a principios de esta semana que «a un solo usuario de la plataforma de IA supuestamente se le proporcionó una imagen que no cumplía con esas pautas».

A pesar de lo que el portavoz dijo que eran «miles» de imágenes inofensivas que el sitio generó en más de un mes, el portavoz dijo que «un supuesto usuario es demasiado y como resultado hemos cerrado el sitio» a partir del martes.

El portavoz no respondió a preguntas específicas sobre qué modelos de IA o proveedores externos pueden haberse utilizado para crear el sitio o sobre las salvaguardas específicas que se diseñaron en un intento de evitar resultados como el informado por Megan.

En declaraciones a Rantz, un portavoz de la lotería dijo que la organización había «acordado un conjunto completo de reglas» para las imágenes de IA del sitio, «incluyendo que las personas en las imágenes estén completamente vestidas». Tras el informe de la imagen en topless, el portavoz dijo que «hicieron que los desarrolladores verificaran todos los parámetros de la plataforma». Y aunque estaban «cómodos con la configuración», el portavoz le dijo a Rantz que «eligieron cerrar el sitio por precaución, ya que no queremos que algo como este supuesto evento vuelva a suceder».

¿No es una solución rápida?

En su programa de radio, Rantz expresó su sorpresa de que la lotería no pudiera mantener el sitio operativo después de reajustar la configuración de seguridad de la IA. «En mi cabeza estaba pensando, bueno, presumiblemente una vez que se enteraron de esto, volvieron a las pautas de backend y simplemente se aseguraron de que dijera, ‘Oye, no senos, no desnudez frontal total’, ese tipo de cosas, y luego Lo arreglaron y luego continuaron con su día», dijo Rantz.

Pero puede que no sea tan sencillo controlar de manera efectiva la infinita variedad de resultados visuales que puede generar un modelo de IA. Si bien modelos como Stable Diffusion y DALL-E tienen filtros para evitar la generación de imágenes sexuales o violentas, los investigadores han descubierto que esos modelos aún respondieron a indicaciones problemáticas generando imágenes que fueron consideradas «inseguras» por un clasificador de imágenes en gran medida. minoría de la época. Los usuarios malintencionados también pueden utilizar trucos de ingeniería rápida para eludir estas salvaguardas integradas cuando utilizan modelos populares de generación de imágenes basados ​​en texto.

Hemos visto este tipo de problemas de seguridad de imágenes de IA también afectan a las grandes corporaciones, como cuando el generador de pegatinas de IA de Facebook puso armas en manos de personajes de dibujos animados infantiles. Más recientemente, un ingeniero de Microsoft acusó públicamente a la herramienta de generación de imágenes Copilot de la compañía de crear aleatoriamente imágenes violentas y sexuales incluso después de que el equipo fuera advertido del problema. El problema de la IA de la Lotería de Washington se produce una semana después de que un informe descubriera que un chatbot del gobierno de la ciudad de Nueva York confeccionaba consejos incorrectos sobre las leyes y regulaciones de la ciudad. «Está mal en algunas áreas y tenemos que arreglarlo», dijo esta semana el alcalde de la ciudad de Nueva York, Eric Adams. «Cada vez que se utiliza tecnología, es necesario ponerla en un entorno real para solucionar los problemas. No se puede vivir en un laboratorio. No se puede permanecer en un laboratorio para siempre».



Source link-49