La UE investiga a Meta por adicción y problemas de seguridad de menores


Meta está nuevamente en problemas por sus métodos (o la falta de ellos) para proteger a los niños. La Comisión Europea ha iniciado un procedimiento formal para determinar si el propietario de Facebook e Instagram ha violado la Ley de Servicios Digitales (DSA) al contribuir a la adicción de los niños a las redes sociales y no garantizarles altos niveles de seguridad y privacidad.

La investigación de la Comisión examinará específicamente si Meta está evaluando y actuando adecuadamente contra los riesgos provocados por las interfaces de sus plataformas. Le preocupa cómo sus diseños podrían «explotar las debilidades y la inexperiencia de los menores y causar comportamientos adictivos, y/o reforzar el llamado efecto ‘madriguera de conejo’. Esta evaluación es necesaria para contrarrestar los riesgos potenciales para el ejercicio del derecho fundamental a el bienestar físico y mental de los niños, así como al respeto de sus derechos.»

El procedimiento también explorará si Meta toma las medidas necesarias para evitar que los menores accedan a contenido inapropiado, si tiene herramientas efectivas de verificación de edad y si los menores tienen herramientas de privacidad sólidas y sencillas, como la configuración predeterminada.

La DSA establece estándares para plataformas en línea y motores de búsqueda de gran tamaño (aquellos con 45 millones o más de usuarios mensuales en la UE) como Meta. Las obligaciones de las empresas designadas incluyen transparencia sobre las decisiones de moderación de contenidos y publicidad, compartir sus datos con la Comisión y analizar los riesgos que plantean sus sistemas en relación con áreas como la violencia de género, la salud mental y la protección de menores.

Meta respondió al procedimiento formal señalando características como la configuración de supervisión parental, el modo silencioso y la restricción automática de contenido para adolescentes. «Queremos que los jóvenes tengan experiencias en línea seguras y apropiadas para su edad y hemos pasado una década desarrollando más de 50 herramientas y políticas diseñadas para protegerlos. Este es un desafío que enfrenta toda la industria y esperamos compartir detalles de nuestra trabajar con la Comisión Europea», dijo un portavoz de Meta Engadget.

Sin embargo, Meta continuamente no ha priorizado la seguridad de los jóvenes. Incidentes alarmantes anteriores incluyen el algoritmo de Instagram que sugiere contenido que presenta explotación sexual infantil y afirma que diseña sus plataformas para que sean adictivas para los jóvenes, al tiempo que sugiere contenido psicológicamente dañino, como la promoción de trastornos alimentarios y dismorfia corporal.

Meta también ha servido como centro de desinformación para personas de todas las edades. La Comisión ya inició un procedimiento formal contra la empresa el 30 de abril debido a preocupaciones sobre la publicidad engañosa, el acceso a datos para los investigadores y la falta de un «discurso cívico y una herramienta de seguimiento electoral efectivos de terceros en tiempo real» antes de las elecciones al Parlamento Europeo de junio. entre otras preocupaciones. A principios de este año, Meta anunció que CrowdTangle, que ha mostrado públicamente cómo se mueven las noticias falsas y las teorías de conspiración en Facebook e Instagram, se cerraría por completo en agosto.



Source link-47