Miles de imágenes de sexo infantil realistas pero falsas de IA encontradas en línea, según un informe


Los expertos en seguridad infantil se están volviendo cada vez más impotentes para evitar que miles de «imágenes sexuales de niños generadas por IA» se creen fácil y rápidamente, y luego se compartan en los foros de pedófilos de la web oscura, informó The Washington Post.

Esta «explosión» de imágenes «perturbadoramente» realistas podría ayudar a normalizar la explotación sexual infantil, atraer a más niños al peligro y dificultar que las fuerzas del orden encuentren a niños reales que están siendo dañados, dijeron los expertos al Post.

Encontrar víctimas representadas en materiales de abuso sexual infantil ya es un «problema de aguja en un pajar», dijo Rebecca Portnoff, directora de ciencia de datos del grupo de seguridad infantil sin fines de lucro Thorn, al Post. Ahora, la aplicación de la ley se retrasará aún más en las investigaciones por los esfuerzos para determinar si los materiales son reales o no.

Los materiales dañinos de IA también pueden volver a victimizar a cualquier persona cuyas imágenes de abusos pasados ​​se utilicen para entrenar modelos de IA para generar imágenes falsas.

“Las imágenes de los niños, incluido el contenido de las víctimas conocidas, se están reutilizando para este resultado realmente malvado”, dijo Portnoff.

Normalmente, el contenido de las víctimas conocidas puede bloquearse mediante herramientas de seguridad infantil que analizan las imágenes denunciadas y detectan cuándo se vuelven a compartir para bloquear las cargas en las plataformas en línea. Pero esa tecnología solo funciona para detectar imágenes reportadas previamente, no imágenes recién generadas por IA. Tanto los expertos en seguridad infantil como los encargados de hacer cumplir la ley informan que estas imágenes de IA se están popularizando cada vez más en los foros de pedófilos de la web oscura, y muchos usuarios de Internet ven «erróneamente» este contenido como una alternativa legalmente gris al comercio de materiales ilegales de abuso sexual infantil (CSAM).

«Aproximadamente el 80 por ciento de los encuestados» en una encuesta publicada en un foro de la dark web con 3000 miembros dijeron que «habían usado o tenían la intención de usar herramientas de IA para crear imágenes de abuso sexual infantil», ActiveFence, que crea herramientas de confianza y seguridad para plataformas en línea. y sitios de transmisión, informados en mayo.

Si bien algunos usuarios que crean imágenes de IA e incluso algunos analistas legales creen que este contenido no es potencialmente ilegal porque no se daña a ningún niño real, algunos funcionarios del Departamento de Justicia de los Estados Unidos le dijeron al Post que las imágenes de IA que sexualizan a menores aún violan las leyes federales de protección infantil. Sin embargo, parece no haber precedentes, ya que los funcionarios no pudieron citar un solo caso anterior que haya resultado en cargos federales, informó el Post.

A medida que las autoridades se vuelven más conscientes del creciente problema, se advierte al público que cambie los comportamientos en línea para evitar la victimización. A principios de este mes, el FBI emitió una alerta, «advirtiendo al público de actores maliciosos que crean contenido sintético (comúnmente conocido como ‘deepfakes’) mediante la manipulación de fotografías o videos benignos para atacar a las víctimas», incluidos informes de «niños menores y sin consentimiento». adultos, cuyas fotos o videos fueron alterados en contenido explícito».

Estas imágenes no solo se difunden en la dark web, sino también en «redes sociales, foros públicos o sitios web pornográficos», advirtió el FBI. La agencia culpó a los avances tecnológicos recientes por el aumento de falsificaciones profundas maliciosas porque las herramientas de inteligencia artificial como Stable Diffusion, Midjourney y DALL-E se pueden usar para generar imágenes realistas basadas en indicaciones de texto simples. Estos avances están «mejorando continuamente la calidad, la personalización y la accesibilidad de la creación de contenido habilitada por inteligencia artificial (IA)», advirtió el FBI.



Source link-49