Meta enfrenta otra demanda por seguridad infantil


Nuevo México es la última jurisdicción acusada de no proteger a los usuarios más jóvenes. La oficina del fiscal general del estado presentó una demanda contra la compañía esta semana después de que los investigadores crearon cuentas de prueba en las que afirmaban ser preadolescentes o adolescentes. Usaron fotos de perfil generadas por IA para las cuentas. La Fiscalía afirma que las cuentas fueron bombardeadas con mensajes e imágenes explícitos, además de proposiciones sexuales por parte de los usuarios. También afirmó que los algoritmos de Meta recomendaban contenido sexual a las cuentas de prueba.

La demanda afirma que «Meta ha permitido que Facebook e Instagram se conviertan en un mercado para depredadores en busca de niños a quienes aprovechar», según . Además, afirma que Meta no empleó medidas para impedir que los menores de 13 años usaran sus plataformas y que el director ejecutivo Mark Zuckerberg era personalmente responsable de la elección de productos que aumentaban los riesgos para los niños.

Para sortear las restricciones de edad de Meta, los investigadores proporcionaron a la empresa fechas de nacimiento de adultos mientras configuraban cuentas falsas para cuatro niños (los niños a menudo acceden a servicios en línea que no deberían acceder). Sin embargo, dieron a entender que las cuentas estaban siendo utilizadas por niños: uno publicó sobre la pérdida de un diente de leche y el comienzo del séptimo grado. Según la demanda, los investigadores también configuraron la cuenta para que pareciera que la madre de la niña ficticia posiblemente la estaba traficando.

La demanda alega que, entre otras cosas, a las cuentas se les enviaron imágenes sexuales de niños y ofertas para pagar por sexo. Dos días después de que los investigadores crearon una cuenta para una niña falsa de 13 años, los algoritmos de Meta sugirieron que siguiera una cuenta de Facebook con más de 119.000 seguidores que publicaba pornografía para adultos.

Los investigadores detectaron material inapropiado (incluidas algunas imágenes que parecían ser de niñas menores de edad y desnudas) a través de los sistemas de informes de Meta. Según la demanda, los sistemas de Meta a menudo consideraban que estas imágenes estaban permitidas en sus plataformas.

En una declaración a la Diario, Meta afirmó que prioriza la seguridad infantil e invierte mucho en equipos de seguridad. «Utilizamos tecnología sofisticada, contratamos expertos en seguridad infantil, informamos contenidos al Centro Nacional para Niños Desaparecidos y Explotados y compartimos información y herramientas con otras empresas y autoridades policiales, incluidos los fiscales generales estatales, para ayudar a erradicar a los depredadores», dijo la empresa. . Meta también ha afirmado que trabaja para evitar que adultos malintencionados contacten a niños en sus plataformas.

A principios de este año, Meta abordó los problemas de seguridad infantil después de que informes indicaran que los algoritmos de Instagram ayudaron a las cuentas que encargaban y compraban material sexual de menores a encontrarse. Precisamente la semana pasada, el Diario la supuesta prevalencia de material de explotación infantil en Instagram y Facebook. Según el Centro Canadiense para la Protección Infantil, una «red de cuentas de Instagram con hasta 10 millones de seguidores cada una ha seguido transmitiendo en vivo vídeos de abuso sexual infantil meses después de que se informara a la empresa». Meta dice que ha tomado medidas al respecto. asuntos.

La demanda de Nuevo México sigue a demandas que un grupo de 41 estados y el Distrito de Columbia, entre otros asuntos, alegaron que la empresa sabía que sus aspectos «adictivos» eran perjudiciales para los usuarios jóvenes y que engañaba a la gente sobre la seguridad en sus plataformas.



Source link-47