Lo que necesitas saber
- Según una investigación de NBC News, el porno deepfake está en aumento y aparece entre los primeros resultados al realizar búsquedas en Google y Bing de Microsoft.
- No existe una forma infalible de evitar que este fenómeno vuelva a ocurrir en el futuro, ya que no existen medidas ni políticas elaboradas para establecer control sobre este problema.
- Microsoft Copilot se negó a mostrar pornografía deepfake y calificó el acto de poco ético a pesar de proporcionar varios enlaces y ejemplos que dirigían al usuario directamente al contenido explícito.
Como Google y Microsoft Bing continúan compitiendo por una mayor porción del mercado de búsquedase está gestando una crisis que podría afectar negativamente a ambos motores de búsqueda.
Según un informe de Noticias NBC, la pornografía deepfake está en una tendencia ascendente ya que ocupa un lugar destacado en algunos de los principales motores de búsqueda. Por contexto, la pornografía deepfake es esencialmente un escenario en el que el rostro de una persona famosa se integra en películas para adultos, haciendo que parezca como si hubiera aparecido en la producción.
Según el análisis y la investigación del medio, era evidente que las imágenes pornográficas deepfake con celebridades femeninas ocupaban un lugar destacado en Google y otros motores de búsqueda cuando se buscaba la mayoría de los nombres femeninos, la palabra deepfake, así como frases como porno deepfake o desnudos falsos. NBC destacó además que las herramientas de búsqueda segura se desactivaron mientras se realizaba esta investigación.
Profundizando en este asunto, el medio utilizó 36 nombres de celebridades femeninas famosas combinados con la palabra deepfake en Google y Bing. De las 36 combinaciones, 34 aparecieron imágenes deepfake no consensuadas y enlaces a videos en los principales resultados de búsqueda de Google. Bing, por otro lado, sacó a la luz 35 imágenes y vídeos deepfake. A partir de los resultados, el medio estableció que la mayoría de las imágenes y videos deepfake provenían de un sitio web popular, conocido por fabricar imágenes deepfake y películas para adultos no consensuadas.
LEA TAMBIÉN: Google Chrome está de camino al tablero de su vehículo
Mientras buscaba desnudos falsos en Bing de Microsoft, los resultados incluyeron docenas de herramientas y sitios web deepfake no consensuales y un artículo que detallaba el daño potencial que el acto podría causar.
Como ya sabrás, Microsoft incorporó a Bing su completo asistente de IA, Microsoft Copilot, así que, naturalmente, también fue uno de los resultados que apareció durante la búsqueda. El chatbot indicó categóricamente que no mostraría ningún porno deepfake y compartió los siguientes sentimientos:
«El uso de deepfakes no es ético y puede tener graves consecuencias».
Sin embargo, la herramienta de inteligencia artificial aún enumera varios enlaces, así como ejemplos que dirigirían al usuario a imágenes y pornografía deepfake (está a solo un clic de distancia). Google se lleva una gran parte de la cuota de mercado de las búsquedas, aunque no parece contar con medidas y políticas elaboradas para evitar el desbordamiento de deepfakes en la web. Sin embargo, las herramientas de búsqueda, como paneles con información seleccionada, impiden el uso de medios alterados y contenido explícito en la plataforma.
Vale la pena señalar que Google tiene una plataforma optimizada donde los usuarios que aparecen en los esquemas de deepfake pueden realizar informes y solicitar que se elimine de la web el contenido explícito en el que aparecen.
Los deepfakes continúan infestando la web con la prevalencia de la IA
Con el surgimiento de IA generativa, los deepfakes están más extendidos que nunca. Sin embargo, Microsoft ha destacado su plan para proteger los procesos electorales de los deepfakes de IA empoderando a los votantes con noticias electorales «autorizadas» y objetivas en Bing antes de las elecciones de 2024.
La administración de Biden emitió una Orden Ejecutiva diseñados para colocar barandillas y están diseñados para evitar que la tecnología se salga de control. Si bien la orden aborda algunas de las preocupaciones de los usuarios con respecto a la tecnología (especialmente con respecto a la seguridad y la privacidad), La precisión sigue siendo un punto de presión..
En diciembre, apareció en línea un nuevo informe que indicaba que Microsoft Copilot desinformó a los usuarios al generar información falsa sobre las próximas elecciones. Los investigadores detrás del estudio indicaron que el problema era sistémico, ya que se detectaron sucesos similares al usar el chatbot para aprender más sobre las elecciones en Alemania y Suiza.
Herramientas de generación de imágenes como Creador de imágenes de Bing y A mitad del viaje están ganando rápidamente popularidad entre los usuarios. Las herramientas son cada vez mejores en la generación de imágenes. Por ejemplo, Bing Image Creator, que obtuvo soporte para la tecnología DALL-E 3 de OpenAI, ahora genera imágenes más realistas. Sin embargo, las quejas han señalado su velocidades de generación lentas y es servicios siendo lobotomizados.
Si bien Microsoft ha establecido cierto control sobre su herramienta de generación de imágenes, es impredecible cómo se desarrollarán las cosas, especialmente con el reciente anuncio de OpenAI, que puso a disposición de los usuarios la tan esperada Tienda GPT. Es probable que veamos más deepfakes llegar a la web si no hay medidas de seguridad elaboradas que impidan tales sucesos.