Policías atascados por una avalancha de imágenes falsas de sexo infantil con IA, según un informe


Las autoridades siguen advirtiendo que una «inundación» de imágenes falsas de sexo infantil generadas por IA está dificultando la investigación de crímenes reales contra niños abusados, informó The New York Times.

El año pasado, después de que los investigadores descubrieran en línea miles de imágenes realistas pero falsas de sexo infantil mediante IA, todos los fiscales generales de Estados Unidos pidieron rápidamente al Congreso que estableciera un comité para solucionar el problema. Pero hasta ahora, el Congreso ha avanzado lentamente, mientras que sólo unos pocos estados han prohibido específicamente las imágenes íntimas no consensuales generadas por IA. Mientras tanto, las fuerzas del orden continúan luchando por descubrir cómo enfrentar a los malos actores que crean y comparten imágenes que, por ahora, existen en gran medida en una zona legal gris.

«La creación de imágenes sexualmente explícitas de niños mediante el uso de inteligencia artificial es una forma particularmente atroz de explotación en línea», dijo a The Times Steve Grocki, jefe de la sección de explotación y obscenidad infantil del Departamento de Justicia. Los expertos dijeron a The Washington Post en 2023 que los riesgos de la difusión de imágenes realistas pero falsas incluían normalizar la explotación sexual infantil, atraer a más niños al peligro y dificultar que las fuerzas del orden encontraran a niños reales sufriendo daños.

En un ejemplo, el FBI anunció a principios de este año que un asistente de vuelo de American Airlines, Estes Carter Thompson III, fue arrestado «por supuestamente grabar o intentar grabar subrepticiamente a una pasajera menor de edad usando un baño a bordo de un avión». Una búsqueda en iCloud de Thompson reveló «cuatro casos adicionales» en los que Thompson supuestamente grabó a otros menores en el baño, así como «más de 50 imágenes de una menor de 9 años no acompañada» durmiendo en su asiento. Si bien la policía intentó identificar a estas víctimas, también «alegó además que se encontraron cientos de imágenes de pornografía infantil generadas por IA» en el teléfono de Thompson.

El preocupante caso parece ilustrar cómo las imágenes de sexo infantil generadas por IA pueden vincularse con actividades criminales reales y, al mismo tiempo, muestra cómo las investigaciones policiales podrían verse empantanadas por los intentos de distinguir fotografías de víctimas reales de imágenes de IA que podrían representar niños reales o falsos.

Robin Richards, comandante del grupo de trabajo sobre crímenes contra niños en Internet del Departamento de Policía de Los Ángeles, confirmó al NYT que debido a la IA, «las investigaciones son mucho más desafiantes».

Y debido a que los generadores de imágenes y los modelos de IA que pueden entrenarse con fotografías de niños están ampliamente disponibles, «usar IA para alterar fotos» de niños en línea «se está volviendo más común», dijo Michael Bourke, ex psicólogo jefe del Servicio de Alguaciles de EE. UU. que pasó décadas apoyando investigaciones sobre delitos sexuales que involucran a niños, dijo al NYT. Richards dijo que los policías no saben qué hacer cuando encuentran estos materiales generados por IA.

Actualmente, no hay muchos casos que involucren materiales de abuso sexual infantil (CSAM) generados por IA, informó el NYT, pero los expertos esperan que ese número «crezca exponencialmente», planteando «preguntas novedosas y complejas sobre si las leyes federales y estatales existentes son adecuadas». para procesar estos crímenes.»

Las plataformas luchan por monitorear imágenes dañinas de IA

En una audiencia del Comité Judicial del Senado hoy en la que se interrogó a los directores ejecutivos de las grandes empresas tecnológicas sobre la explotación sexual infantil (CSE) en sus plataformas, Linda Yaccarino, directora ejecutiva de X (anteriormente Twitter), advirtió en su declaración de apertura que la inteligencia artificial también está dificultando el monitoreo de las plataformas. CSE. Yaccarino sugirió que la colaboración de la industria es imperativa para adelantarse al creciente problema, al igual que proporcionar más recursos a las fuerzas del orden.

Sin embargo, los funcionarios encargados de hacer cumplir la ley en Estados Unidos han indicado que las plataformas también están dificultando la vigilancia de CSAM y CSE en línea. Las plataformas que dependen de la IA para detectar CSAM están generando «informes inviables», arruinando las investigaciones gestionadas por equipos policiales que ya no cuentan con fondos suficientes, informó The Guardian. Y el NYT informó que otras investigaciones se están viendo frustradas al agregar opciones de cifrado de extremo a extremo a los servicios de mensajería, que «limitan drásticamente la cantidad de delitos que las autoridades pueden rastrear».

El informe del NYT señaló que en 2002, la Corte Suprema anuló una ley que había estado vigente desde 1996 que impedía la pornografía infantil «virtual» o «generada por computadora». El fiscal general de Carolina del Sur, Alan Wilson, ha dicho que la tecnología de inteligencia artificial disponible hoy en día puede poner a prueba esa sentencia, especialmente si los menores continúan siendo perjudicados por imágenes falsas de sexo infantil de inteligencia artificial que se difunden en línea. Mientras tanto, las leyes federales, como los estatutos sobre obscenidad, pueden utilizarse para procesar casos, informó el NYT.

El Congreso ha reintroducido recientemente algunas leyes para abordar directamente las imágenes íntimas no consensuales generadas por IA después de que una amplia gama de imágenes que mostraban pornografía falsa con IA de la estrella del pop Taylor Swift se volvieran virales este mes. Eso incluye la Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales, que crea un recurso civil federal para cualquier víctima de cualquier edad que sea identificable en imágenes de IA que las muestren desnudas o involucradas en conductas o escenarios sexuales sexualmente explícitos.

También existe la «Ley de Prevención de Deepfakes de Imágenes Íntimas», que busca «prohibir la divulgación no consensuada de imágenes íntimas alteradas digitalmente». Esto se reintrodujo este año después de que los adolescentes generaron imágenes falsas de desnudos de compañeras de clase con IA y las difundieron en una escuela secundaria de Nueva Jersey el otoño pasado. Francesca Mani, una de las víctimas adolescentes en Nueva Jersey, estuvo allí para ayudar a anunciar la ley propuesta, que incluye penas de hasta dos años de prisión por compartir imágenes dañinas.

«Lo que nos pasó a mí y a mis compañeros de clase no estuvo bien, y no hay manera de que me encoja de hombros y lo deje pasar», dijo Mani. «Estoy aquí, levantándome y gritando por el cambio, luchando por leyes, para que nadie más tenga que sentirse tan perdido e impotente como yo el 20 de octubre».



Source link-49