Satya Nadella dice que las falsificaciones explícitas de IA de Taylor Swift son «alarmantes y terribles»


El director ejecutivo de Microsoft, Satya Nadella, respondió a la controversia sobre Imágenes falsas sexualmente explícitas de Taylor Swift creadas por IA. En una entrevista con Noticias nocturnas de NBC que saldrá al aire el próximo martes, Nadella califica la proliferación de desnudos simulados no consentidos como “alarmante y terrible”, y le dijo al entrevistador Lester Holt que “creo que nos corresponde actuar rápido en esto”.

En una transcripción distribuida por NBC antes del programa del 30 de enero, Holt le pide a Nadella que reaccione ante Internet «explotando con imágenes falsas, y enfatizo imágenes falsas y sexualmente explícitas de Taylor Swift». La respuesta de Nadella logra abrir varias latas de gusanos de políticas tecnológicas y al mismo tiempo dice muy poco sobre ellos, lo cual no es sorprendente cuando no hay una solución infalible a la vista.

Yo diría dos cosas: una, es que vuelvo a lo que creo que es nuestra responsabilidad, que son todas las barreras que necesitamos colocar alrededor de la tecnología para que se produzca más contenido seguro. Y hay mucho por hacer y mucho por hacer allí. Pero se trata de una cuestión global y social; ya sabes, diré, de convergencia en ciertas normas. Y podemos hacerlo, especialmente cuando tenemos la ley, las fuerzas del orden y las plataformas tecnológicas que pueden unirse. Creo que podemos gobernar mucho más de lo que pensamos, por lo que nos damos crédito.

Microsoft podría tener una conexión con las imágenes falsas de Swift. A 404 Medios informe indica que provienen de una comunidad de creación de pornografía no consensuada basada en Telegram que recomienda usar el generador de imágenes de Microsoft Designer. En teoría, el diseñador se niega a producir imágenes de personajes famosos, pero los generadores de IA sí lo son. fácil de engañary 404 descubrió que podía romper sus reglas con pequeños ajustes en las indicaciones. Si bien eso no prueba que se utilizó Designer para las imágenes de Swift, es el tipo de deficiencia técnica que Microsoft puede abordar.

Pero las herramientas de inteligencia artificial han simplificado enormemente el proceso de creación de desnudos falsos de personas reales. causando agitación para mujeres que Tiene mucho menos poder y celebridad que Swift.. Y controlar su producción no es tan simple como hacer que las grandes empresas refuercen sus barreras. Incluso si las principales plataformas de «grandes tecnologías» como la de Microsoft están bloqueadas, la gente puede volver a capacitar herramientas abiertas como Stable Diffusion para producir imágenes NSFW a pesar de los intentos de hazlo más difícil. Es posible que muchos menos usuarios accedan a estos generadores, pero el incidente de Swift demuestra cuán ampliamente se puede difundir el trabajo de una pequeña comunidad.

Hay otras opciones provisionales, como las redes sociales que limitan el alcance de imágenes no consensuadas o, aparentemente, Justicia vigilante impuesta por Swiftie contra las personas que los difunden. (¿Eso cuenta como “convergencia en ciertas normas”?) Sin embargo, por ahora, el único plan claro de Nadella es poner en orden la propia casa de inteligencia artificial de Microsoft.



Source link-37