La red social descentralizada de Mastodon tiene un gran problema de CSAM


Mastodon ha ganado popularidad durante el año pasado a medida que los usuarios de Twitter buscaban alternativas siguiendo a Elon Musk. Parte de su atractivo es su naturaleza descentralizada que lo aísla de los caprichos de los multimillonarios que hablan antes de pensar. Sin embargo, como era de esperar, lo que lo hace tan atractivo también ha demostrado ser un dolor de cabeza, lo que hace que la moderación del contenido sea casi imposible.

encontró 112 coincidencias de material conocido de abuso sexual infantil (CSAM, por sus siglas en inglés) durante un período de dos días, con casi 2,000 publicaciones que usaban hashtags comunes relacionados con material abusivo. El investigador David Thiel dice: «Obtuvimos más resultados de photoDNA en un período de dos días de los que probablemente hayamos tenido en toda la historia de nuestra organización de hacer cualquier tipo de análisis de redes sociales, y ni siquiera está cerca». Nos comunicamos con Mastodon para obtener comentarios y actualizaremos esta historia una vez que hayamos recibido una respuesta.

Por supuesto, el gran problema con las plataformas de redes sociales no federadas como Mastodon es que ninguna empresa o entidad controla todo en la plataforma. Cada instancia tiene sus propios administradores, y ellos son los máximos responsables. Sin embargo, esos administradores no pueden controlar ni moderar lo que sucede en otras instancias o servidores.

Este tampoco es únicamente un problema de Mastodon. también se basa en el modelo descentralizado. Si bien aún no es compatible, Threads planea ser . Esto significa que los usuarios de Threads podrán seguir, responder y volver a publicar contenido de Mastodon, y viceversa.

Esto crea un problema único para Meta, que no puede controlar todo el flujo de moderación como lo haría con Facebook o Instagram. Incluso entonces, la empresa. Presumiblemente, las instancias más grandes en Mastodon y otras plataformas como Threads podrían bloquear por completo el acceso a instancias problemáticas. Por supuesto, eso no “resolvería” el problema. El contenido seguiría existiendo. Simplemente se aislaría y se dejaría en manos de los moderadores de esa instancia específica para eliminarlo.



Source link-47