Investigadores de Stanford descubren que Mastodon tiene un problema material de abuso infantil masivo


Mastodon, la red descentralizada vista como una alternativa viable a Twitter, está plagada de material de abuso sexual infantil (CSAM), según un nuevo estudio de Observatorio de Internet de Stanford (a través de el poste de washington). En solo dos días, los investigadores encontraron 112 instancias de MASN conocido en 325 000 publicaciones en la plataforma; la primera instancia apareció después de solo cinco minutos de búsqueda.

Para realizar su investigación, el Observatorio de Internet escaneó las 25 instancias de Mastodon más populares en busca de MASI. Los investigadores también emplearon la API SafeSearch de Google para identificar imágenes explícitas, junto con PhotoDNA, una herramienta que ayuda a encontrar CSAM marcado. Durante su búsqueda, el equipo encontró 554 piezas de contenido que coincidían con hashtags o palabras clave que suelen usar los grupos de abuso sexual infantil en línea, todos los cuales fueron identificados como explícitos en la «más alta confianza» por Google SafeSearch.

La publicación abierta de CSAM es «inquietantemente frecuente»

También hubo 713 usos de los 20 hashtags principales relacionados con el MASI en Fediverse en publicaciones que contenían medios, así como 1217 publicaciones de solo texto que apuntaban a «comercio de MASI fuera del sitio o preparación de menores». El estudio señala que la publicación abierta de MASI es «inquietantemente frecuente».

Un ejemplo hacía referencia a la extensión interrupción del servidor mastodon.xyz notamos a principios de este mes, que fue un incidente que ocurrió debido a CSAM publicado en Mastodon. En una publicación sobre el incidenteel único responsable del mantenimiento del servidor declaró que fueron alertados sobre contenido que contenía contenido de abuso sexual infantil, pero señala que la moderación se lleva a cabo en su tiempo libre y puede demorar algunos días; esta no es una operación gigante como Meta con un equipo mundial de contratistas, es solo una persona.

Si bien dijeron que tomaron medidas contra el contenido en cuestión, el host del dominio mastodon.xyz lo había suspendido de todos modos, haciendo que el servidor fuera inaccesible para los usuarios hasta que pudieran comunicarse con alguien para restaurar su listado. Después de que se resolvió el problema, el administrador de mastodon.xyz dice que el registrador agregó el dominio a una lista de «falsos positivos» para evitar futuras eliminaciones. Sin embargo, como señalan los investigadores, “lo que provocó la acción no fue un falso positivo”.

«Obtuvimos más resultados de photoDNA en un período de dos días de los que probablemente hayamos tenido en toda la historia de nuestra organización de hacer cualquier tipo de análisis de redes sociales, y ni siquiera está cerca», dijo David Thiel, uno de los investigadores del informe, en un comunicado a El Correo de Washington. “Mucho de esto es solo el resultado de lo que parece ser una falta de herramientas que las plataformas centralizadas de redes sociales utilizan para abordar las preocupaciones de seguridad infantil”.

Como redes descentralizadas como Mastodon crecen en popularidad, por lo que tienen preocupaciones sobre la seguridad. Las redes descentralizadas no utilizan el mismo enfoque de moderación que los sitios principales como Facebook, Instagram y Reddit. En cambio, cada instancia descentralizada tiene control sobre la moderación, lo que puede crear inconsistencias en Fediverse. Es por eso que los investigadores sugieren que las redes como Mastodon empleen herramientas más sólidas para los moderadores, junto con la integración de PhotoDNA y los informes de CyberTipline.



Source link-37