Investigaciones condenatorias encuentran que Instagram es un vínculo clave que conecta redes de pedófilos


Instagram se ha convertido en la plataforma más importante para compradores y vendedores de contenido sexual de menores, según investigaciones de The Wall Street Journal, el Observatorio de Internet de Stanford y el Laboratorio de Rescate de la Universidad de Massachusetts Amherst (UMass).

Mientras que otras plataformas desempeñan un papel en el procesamiento de pagos y la entrega de contenido, Instagram es donde cientos de miles, y quizás millones, de usuarios buscan hashtags explícitos para descubrir «menús» ilegales de contenido que luego se pueden encargar. El contenido que se ofrece incluye imágenes perturbadoras de niños que se autolesionan, «niños pequeños incestuosos» y menores que realizan actos sexuales con animales, así como oportunidades para que los compradores organicen reuniones ilícitas con niños, informó el Journal.

Debido a que el material de abuso sexual infantil (CSAM) en sí mismo no está alojado en Instagram, el propietario de la plataforma, Meta, tiene más dificultades para detectar y eliminar a estos usuarios. Los investigadores descubrieron que incluso cuando el equipo de confianza y seguridad de Meta prohíbe a los usuarios, sus esfuerzos son «directamente socavados» por el sistema de recomendación de Instagram, que permite que las redes se vuelvan a ensamblar rápidamente en cuentas de «respaldo» que generalmente se enumeran en las biografías de las cuentas originales por solo ese propósito de sobrevivir a las prohibiciones.

Un portavoz de Meta le dijo a Ars que la compañía trabaja «agresivamente para combatir» la explotación infantil en todas sus plataformas «y para apoyar a las fuerzas del orden público en sus esfuerzos por arrestar y enjuiciar a los criminales detrás de esto». Debido a que las tácticas de los delincuentes «cambian constantemente», Meta dijo que ha promulgado «políticas y tecnología estrictas para evitar que encuentren o interactúen con adolescentes en nuestras aplicaciones» y contrató «equipos de especialistas que se enfocan en comprender sus comportamientos en evolución para que podamos eliminar las redes abusivas». .» Estos esfuerzos llevaron a Meta a desmantelar 27 redes abusivas entre 2020 y 2022 y prohibir 490.000 cuentas que violaban las políticas de seguridad infantil en enero de 2023, informó el vocero.

Pero estas tácticas no parecen estar haciendo lo suficiente para combatir el problema, dijeron los investigadores. El director de UMass Rescue Lab, Brian Levine, le dijo a Ars que le tomó minutos a su equipo descubrir redes de pedófilos que operan en Instagram después de identificar «etiquetas simples» utilizadas para ayudar a conectar a compradores y vendedores. The Wall Street Journal informó que los hashtags identificados por los investigadores podrían ser obvios, como «pedowhore», o basarse en palabras clave, como «pizza de queso», que comparte iniciales para aludir a la pornografía infantil.

Levine dijo que dado que el equipo de confianza y seguridad de Instagram tiene un acceso más amplio para buscar en la plataforma, debería poder monitorear los hashtags de manera más efectiva que los investigadores externos. Sin embargo, el equipo no parece estar monitoreando la situación de manera efectiva, ya que le faltan hashtags fáciles de descubrir.

Esta fue la primera vez que el laboratorio de Levine investigó Instagram como parte del trabajo del equipo para investigar la victimización infantil en línea y crear herramientas para prevenirla, dijo Levine a Ars.

«Creo que su equipo de confianza y seguridad necesita mucha ayuda», agregó Levine.

En una investigación publicada ayer que investiga el CSAM autogenerado (SG-CSAM) supuestamente publicado por menores que anuncian su propio contenido, Alex Stamos, director del Observatorio de Internet de Stanford (SIO), le dijo a Ars que su equipo no se centró específicamente en Instagram. Pero el equipo descubrió que el sistema de recomendación de la plataforma «juega un papel particularmente importante como mecanismo de descubrimiento que presenta a los compradores con los vendedores». Levine le dijo a Ars que Instagram tiene la obligación de garantizar que su sistema de recomendaciones no promueva contenido abusivo.

The Journal reveló que Instagram falló repetidamente en prohibir los hashtags, eliminar contenido y evitar la promoción una vez que se detectó el contenido. Luego de que el Journal enviara consultas, por ejemplo, Meta confirmó que estaba «en proceso de eliminar» hashtags que promovían materiales ilegales como «pedobait» o «mnsfw» (menor no seguro para el trabajo) y admitió que «permitía a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con material ilegal». Un portavoz de Meta le dijo a Ars que ya ha «restringido miles de términos de búsqueda y hashtags adicionales en Instagram».

El WSJ informó que Instagram era tan ineficaz para detener la formación de anillos de pedófilos que a veces mostraba una pantalla emergente cuando los usuarios buscaban contenido abusivo conocido, advirtiendo a los usuarios que «estos resultados pueden contener imágenes de abuso sexual infantil». elija «ver resultados de todos modos» u «obtener recursos» con respecto a los daños del consumo de contenido abusivo Meta le dijo al Journal que estaba eliminando esta opción, pero no explicó por qué se dio la opción en primer lugar.

Meta también admitió que repetidamente no ha actuado sobre los informes de abuso infantil en Instagram debido a «una falla de software» que impide que los informes se procesen. Según los informes, este error se ha solucionado desde entonces. Ahora Meta dijo que proporcionará capacitación adicional para los revisores de contenido y reunirá un grupo de trabajo interno «para investigar estos reclamos y abordarlos de inmediato».



Source link-49