Si Taylor Swift no puede derrotar al porno deepfake, nadie podrá


Si alguien puede reunir una base, es Taylor Swift.

Cuando esta semana circularon en las redes sociales imágenes de Swift sexualmente explícitas, probablemente generadas por IA, galvanizó a sus fanáticos. Swifties encontró frases y hashtags relacionados con las imágenes y los inundó con videos y fotos de Swift actuando. “Protect Taylor Swift” se volvió viral y se volvió tendencia cuando los Swifties hablaron no solo en contra de los deepfakes de Swift, sino también en contra de todas las imágenes explícitas y no consensuadas hechas de mujeres.

Swift, posiblemente la mujer más famosa del mundo en este momento, se ha convertido en la víctima de alto perfil de una forma muy frecuente de acoso. Todavía no ha comentado públicamente las fotos, pero su estatus le da poder para ejercer en una situación en la que tantas mujeres se han quedado con pocos recursos. El porno deepfake se está volviendo más común a medida que la inteligencia artificial generativa mejora: se cargaron 113.000 videos deepfake en los sitios web de pornografía más populares en los primeros nueve meses de 2023, un aumento significativo con respecto a los 73.000 videos subidos a lo largo de 2022. En 2019, una investigación de una startup descubrió que el 96 por ciento de los deepfakes en Internet eran pornográficos.

El contenido es fácil de encontrar en motores de búsqueda y redes sociales, y ha afectado a otras celebridades femeninas y adolescentes. Sin embargo, muchas personas no comprenden el alcance total del problema ni su impacto. Swift y la manía mediática que la rodea tienen el potencial de cambiar eso.

«Parece que este podría ser uno de esos eventos desencadenantes» que podrían conducir a cambios legales y sociales en torno a los deepfakes no consensuados, dice Sam Gregory, director ejecutivo de Witness, una organización sin fines de lucro centrada en el uso de imágenes y videos para proteger los derechos humanos. Pero Gregory dice que la gente todavía no entiende cuán común es la pornografía deepfake y cuán dañina y violatoria puede ser para las víctimas.

En todo caso, este desastre de deepfake recuerda a la filtración de iCloud de 2014 que provocó que fotos de celebridades desnudas como Jennifer Lawrence y Kate Upton se difundieran en línea, lo que provocó llamados para una mayor protección de las identidades digitales de las personas. Apple finalmente mejoró las funciones de seguridad.

Un puñado de estados tienen leyes sobre los deepfakes no consensuales, y también hay medidas para prohibirlos a nivel federal. El representante Joseph Morelle (demócrata por Nueva York) presentó un proyecto de ley en el Congreso que haría ilegal crear y compartir pornografía deepfake sin el consentimiento de una persona. Otro proyecto de ley de la Cámara de Representantes de la representante Yvette Clarke (demócrata por Nueva York) busca brindar recursos legales a las víctimas de pornografía deepfake. El representante Tom Kean Jr. (republicano por Nueva Jersey), que en noviembre presentó un proyecto de ley que exigiría etiquetar el contenido de IA, aprovechó el momento viral de Swift para llamar la atención sobre sus esfuerzos: “Ya sea que la víctima sea Taylor Swift o cualquier joven persona en todo nuestro país: necesitamos establecer salvaguardias para combatir esta tendencia alarmante”, dijo Kean en un comunicado.

Esta no es la primera vez que Swift o Swifties intentan responsabilizar a las plataformas y a las personas. En 2017, Swift ganó una demanda que presentó contra un DJ de radio que, según ella, la manoseó durante un encuentro. Se le concedió 1 dólar, la cantidad por la que demandó, y lo que su abogado Douglas Baldridge llamó una suma simbólica “cuyo valor es inconmensurable para todas las mujeres en esta situación”.



Source link-46