Roblox demandado por supuestamente permitir la explotación sexual y financiera de una niña


Durante la pandemia, la plataforma de juegos creada por usuarios que es tan popular entre los niños, Roblox, amplió su base de usuarios y decidió cotizar en bolsa. En dos años, su valor se disparó de menos de 4.000 millones de dólares a 45.000 millones de dólares. Ahora está siendo demandado, junto con Discord, Snap y Meta, por un padre que alega que durante la pandemia, Roblox se convirtió en la puerta de entrada que permitió a múltiples usuarios adultos aprovecharse de una niña de 10 años.

La demanda presentada el miércoles en el Tribunal Superior de San Francisco muestra cómo los depredadores sexuales pueden explotar múltiples plataformas sociales a la vez para cubrir sus huellas mientras explotan financiera y sexualmente a los niños. Alega que, en 2020, Roblox conectó a una joven llamada SU con hombres adultos que abusaron de ella durante meses, manipulándola para que enviara pagos usando la moneda de Roblox llamada Robux e induciéndola a compartir fotos explícitas en Discord y Snapchat hasta 2021. Como la niña creció cada vez más ansiosa y deprimida, la demanda alega que Instagram comenzó a recomendar contenido de autolesiones y, en última instancia, SU tuvo que retirarse de la escuela después de múltiples intentos de suicidio.

Al igual que muchas demandas similares de responsabilidad por productos defectuosos que las plataformas sociales han enfrentado recientemente por supuestamente causar adicción a los niños y causar daños, esta nueva demanda busca responsabilizar a las plataformas por supuestamente seguir promoviendo el uso de funciones que las empresas tecnológicas saben que pueden presentar riesgos graves para los usuarios menores. Y el tutor de SU, conocido como CU en la demanda, quiere que las plataformas paguen por sacar provecho de los sistemas que supuestamente involucran imprudentemente a los niños.

La demanda dice que las plataformas se niegan a evitar el acceso de depredadores a menores, lo que sugiere soluciones económicas y simples que las plataformas pasan por alto porque potencialmente limitarían las ganancias. Estas sugerencias incluyen advertir a los menores sobre posibles interacciones depredadoras, verificar la edad de los titulares de cuentas, restringir que los usuarios adultos envíen mensajes a usuarios menores, prohibir que los usuarios adultos envíen mensajes a menores o evitar que los menores eludan la supervisión de los padres al limitar el acceso de los menores a ciertas funciones y capacidades para crear cuentas duplicadas.

Un portavoz de Roblox le dijo a Ars: «Si bien no comentamos sobre litigios pendientes, Roblox tiene una cultura de seguridad primero y trabaja incansablemente para mantener una plataforma segura y civil para todos». Roblox también dice que tiene una política de tolerancia cero para los usuarios «ponen en peligro o sexualizan a los niños de cualquier manera» y toma «medidas rápidas contra cualquier persona que infrinja nuestras Normas comunitarias».

Discord le dijo a Ars que escanea cada imagen en su plataforma para detectar materiales de abuso sexual infantil y, haciéndose eco de Roblox, dijo que tiene una política de tolerancia cero y toma medidas inmediatas cuando se da cuenta de la explotación sexual o el peligro infantil. “Esto incluye investigar y prohibir proactivamente a los usuarios, cerrar servidores y realizar esfuerzos específicos para detectar y deshabilitar cuentas que violan nuestros Términos de servicio y Pautas de la comunidad”.

Snap no proporcionó comentarios de inmediato a Ars.

Meta le dijo a Ars que no puede comentar sobre litigios activos, pero dice que sus «más profundas condolencias están con cualquier persona afectada por estos problemas difíciles y complejos».

Podría decirse que Meta ha enfrentado la mayor cantidad de críticas sobre este tema, desde que la denunciante Frances Haugen le dijo al Senado de los EE. UU. cómo Facebook perjudicó a sabiendas a los usuarios jóvenes. Un portavoz de Meta le dijo a Ars que ha implementado cambios en Instagram que son similares, aunque aparentemente más débiles, a los cambios que busca la demanda.

“Los adolescentes automáticamente tienen sus cuentas configuradas como privadas cuando se unen a Instagram, los adultos no pueden enviar mensajes a los adolescentes que no los siguen, no mostramos las cuentas que pertenecen a los adolescentes a algunos adultos en lugares donde sugerimos contenido, y tenemos controles diseñado para limitar los tipos de contenido que ven los adolescentes”, dijo un portavoz de Meta a Ars.

Como resultado de las experiencias de SU en Roblox, Discord, Snapchat e Instagram, la tutora de la niña, CU, desde entonces tuvo que renunciar al «trabajo de sus sueños» con el gobierno, sacrificando beneficios y una pensión, para atender las crecientes necesidades de atención de SU. Hasta ahora, CU dice en la demanda que se ha endeudado $10,000 por copagos de atención médica y que SU continúa necesitando atención para problemas de salud continuos.

La demanda busca daños de las plataformas sociales para ayudar a recuperar los costos de la atención médica de SU, así como daños monetarios por la atención futura de SU, la pérdida de ingresos y la capacidad futura de ingresos de CU, daños punitivos y más, por determinar, han exigido, por un jurado.



Source link-49