La aplicación de retratos de moda Lensa es acusada de crear desnudos no consensuados y contenido de abuso infantil


Los retratos generados por IA de Lensa, compartidos en su cuenta de Instagram.

Los retratos generados por IA de Lensa, compartidos en su cuenta de Instagram.
Captura de pantalla: lensa.ai/Instagram

En las últimas dos semanas, la aplicación de retratos de inteligencia artificial Lensa se ha disparado en popularidad. Probablemente esté viendo sus avatares vagamente inspirados en el anime y de apariencia etérea, generados por la aplicación cuando los usuarios ingresan un mínimo de 10 fotos de ellos mismos, en todas partes en las redes sociales. Pero además de los debates éticos en curso sobre cómo se utiliza la aplicación diseñado para robar a los artistasasí como su sobre datos y políticas de privacidadla aplicación ahora está siendo acusada de generar material de explotación sexual infantil.

Olivia Snow, investigadora del Centro de Investigación Crítica de Internet de la UCLA, escribió por cableado sobre sus observaciones sobre la tendencia de la aplicación a crear imágenes altamente sexualizadas de mujeres, a menudo generando «posturas sensuales y senos gigantescos» e imágenes de desnudos, a veces puramente a partir de fotografías de rostros.

Snow dijo que cuando subió fotos de su infancia, «lo que resultó fueron fotos completamente desnudas de una cara adolescente y, a veces, infantil, pero con un cuerpo claramente adulto». Las poses y la estética sexualizadas que aparecen en las imágenes generadas por IA de sus fotos de la infancia eran casi idénticas a las de las imágenes generadas por IA de sus fotos adultas. “Al igual que en mis pruebas anteriores que generaron miradas y poses seductoras, este conjunto produjo una especie de timidez: una espalda descubierta, cabello despeinado, un avatar con mi rostro infantil sosteniendo una hoja entre sus pechos desnudos de adulto”, escribió Snow. Esto, por supuesto, a pesar de las instrucciones de la aplicación de subir «sin desnudos» y «sin niños, solo adultos».

Snow también expresó su preocupación de que las imágenes claramente sexualizadas de los retratos generados por Lensa sugieran que los usuarios están subiendo fotos explícitas a la aplicación, a pesar de sus términos de servicio, «en un volumen lo suficientemente alto como para que la desnudez se instale en la tecnología». Perturbador, imágenes sexualizadas generadas por IA de celebridades famosas y trabajadores sexuales ya es común, y aplicaciones como Lensa tienen el potencial de hacer que todos, incluidos los niños, sean objeto de acoso y violación a través de fotos de desnudos generadas por IA. Esto es especialmente preocupante ya que el contenido de abuso infantil generado por IA puede evadir la moderación del contenido de las redes sociales.

El lunes, TechCrunch señaló que es demasiado fácil para los usuarios desvestirse y crear fotos de desnudos y «porno suave» de personas, desde amigos de Facebook hasta personas aleatorias que encuentras en la tienda de comestibles, sin su consentimiento. “La facilidad con la que puedes crear imágenes de cualquier persona que puedas imaginar (o, al menos, de cualquier persona de la que tengas un puñado de fotos) es aterradora”, escribió Haje Jan Kamps. para Techcrunch. Esto se debe a que, al punto de Snow, el futurismo notas que es «alarmantemente simple» para los usuarios eludir los términos de la aplicación y generar contenido desnudo.

Contenido de explotación cibernética, a menudo de parejas íntimas abusivas en lo que a menudo llamada «pornografía de venganza», ya está desenfrenado en las plataformas sociales, y los gobiernos estatales, el gobierno federal y las empresas de redes sociales han luchó durante años para controlarlo. Las imágenes de desnudos no consensuales generadas por IA, incluidas las imágenes que representan a niños, empeoran exponencialmente esta crisis ya discordante.

Prisma Labs, propietaria de la aplicación, no respondió de inmediato a una solicitud de comentarios de Jezabel sobre los pasos que se están tomando para evitar las imágenes generadas por IA que muestran desnudez infantil, o evitar que los usuarios carguen fotos de desnudos o adolescentes en la aplicación.

Hay una serie de otros problemas evidentes con la aplicación, incluido que parece satisfacer los estándares de belleza racistas por diseño: Snow dijo que alrededor de una docena de mujeres de color le dijeron que Lensa «blanqueó su piel y anglicó sus rasgos». A los artistas también les preocupa que la aplicación sea otro paso para que la IA sirva como una alternativa económica para el trabajo de los artistas, mientras que un artista dicho NBC que a pesar de la afirmación de Lensa de que está «llevando el arte a las masas», en realidad está «llevando la falsificación, el robo de arte [and] copiando a las masas.”

Además, aunque Prisma Labs estados que elimina automáticamente las fotos subidas por los usuarios después de generar imágenes, sus términos de servicio parecen reclamar los derechos de tu rostro después de ser subidos, prácticamente abriendo la puerta a todo tipo de vigilancia distópica. Los términos de Lensa establecen que al cargar sus fotos, o «Contenido de usuario», le otorga a Lensa una «licencia perpetua, irrevocable, no exclusiva, libre de regalías, transferible y sublicenciable para usar, reproducir, modificar, crear obras derivadas de su Contenido de usuario. ”

Por supuesto, entre todos estos problemas, la aparente capacidad de Lensa para crear contenido de explotación sexual infantil e imágenes de niños desnudos es el más urgente. Y a medida que el uso de la aplicación continúa aumentando, también lo hace la amenaza de su uso indebido para atacar y sexualizar a niños reales.





Source link-53