[ad_1]
Después de que un TikTok que acusaba a Patreon de ignorar los informes y beneficiarse deliberadamente de las cuentas que publicaban materiales de abuso sexual infantil (CSAM) atrajo cientos de miles de visitas, se acumularon más TikTokers, generando más interés. Patreon respondió de inmediato calificando a los TikToks como desinformación. En un blog, Patreon negó las acusaciones y acusó a TikTokers de difundir una «conspiración de que Patreon aloja a sabiendas material ilegal y de explotación infantil».
Según Patreon, la teoría de la conspiración surgió de una publicación falsa en un sitio de publicación de trabajos; Vice informó más tarde que el sitio era Glassdoor. La revisión de Glassdoor se publicó en agosto y afirmó que Patreon se negó a responder a los informes de cuentas sospechosas de «vender fotografías lascivas» de niños. Cuando los TikTokers describieron sus intentos fallidos de informar estas cuentas, Patreon despidió a miembros de su equipo de seguridad y, dijo Patreon, «los espectadores vincularon incorrectamente» los «cambios de personal a pequeña escala que hicimos la semana pasada en nuestra organización de seguridad». Los TikTokers afirmaron que Patreon despidió a su personal específicamente por no cumplir con las órdenes de permitir que CSAM permaneciera en la plataforma.
«La desinformación peligrosa y conspirativa comenzó a circular en las redes sociales recientemente», dijo Patreon. «Queremos que todos nuestros creadores y patrocinadores sepan que estas afirmaciones son inequívocamente falsas y dejar las cosas claras».
En los videos de TikTok, las «fotos lascivas» de Patreon, según encontró el informe de Vice, eran de una mezcla de cuentas familiares y cuentas con modelos adultos participando en «juegos de edad» y haciéndose pasar por niños. El creador de la cuenta de edad, informó Vice, finalmente fue expulsado de Patreon y otras plataformas. La jefa de política estadounidense de Patreon, Ellen Satterwhite, le dijo a Vice que «Patreon tiene tolerancia cero con la sexualización de niños o adolescentes y eliminará a cualquier usuario y todo el contenido asociado que viole esta política». Patreon le dijo a Ars que no tiene más comentarios en este momento.
Desarrollando tecnología para bloquear todo CSAM
Según los datos de 2020, Internet Watch Foundation, con sede en el Reino Unido, informó que más de una quinta parte del MASI global está alojado en los EE. UU. En todo el mundo, el problema ha aumentado un 15.000 por ciento en los últimos 15 años, según Thorn, una organización que desarrolla nuevas tecnologías para combatir el abuso sexual infantil en línea (fundada por Ashton Kutcher y Demi Moore).
Patreon dijo en su declaración que trabaja con Thorn y otras organizaciones, como el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) e INHOPE, para «mantener Internet más seguro». Organizaciones como estas, dedicadas a acabar con el abuso sexual infantil, tienen la tarea de crear conciencia sobre los abusos de MASI en línea, al tiempo que experimentan una posible pérdida de recursos impulsada por la histeria sobre los cargos fraudulentos de tráfico sexual, que, según informó Vice, se ha convertido en alimento común para viral. Tik Toks.
Un portavoz de Thorn le dijo a Ars que no puede comentar sobre el caso de TikTok, pero que podría explicar más sobre su asociación con Patreon.
Debido a que el problema de «CSAM en plataformas tecnológicas es generalizado y continúa creciendo exponencialmente», un portavoz de Thorn dijo que «cualquier plataforma con un botón de carga puede usarse, y probablemente se use, para distribuir CSAM». Hoy, Thorn dijo que «los depredadores tienen más acceso que nunca a los niños y la capacidad de distribuir MASI», y es por eso que Thorn trabaja con empresas tecnológicas como Patreon, que tienen plataformas ampliamente utilizadas, para tratar de impulsar un «cambio a nivel de sistemas». a un «problema omnipresente».
Como parte de su asociación con Thorn, Patreon utiliza una herramienta de Thorn llamada Safer para «identificar, detectar y denunciar el abuso sexual infantil a gran escala», en parte mediante el uso de la «tecnología de emparejamiento y hashing de Safer» para bloquear el contenido compartido que ya está marcado en un Base de datos CSAM, como la del NCMEC.
Thorn es una organización que actúa como engranaje entre la policía y las empresas de tecnología para producir soluciones más impactantes, pero los datos de la IWF sugieren que EE. UU. tiene un largo camino por recorrer para poner fin de manera efectiva al MASI en línea.
Debido a que Patreon sigue siendo una plataforma ampliamente utilizada, la posibilidad de que CSAM se publique en su plataforma permanece, dijo el portavoz de Thorn. «Internet ha evolucionado de una manera que facilita que los abusadores compartan material de abuso sexual infantil dentro de comunidades que pueden florecer en las mismas plataformas que todos usamos todos los días», dijo Thorn.
[ad_2]
Source link-49