Según se informa, Instagram ofreció videos de sexualización infantil a seguidores de influencers adolescentes


Tras la supuesta controversia publicitaria de X que involucra contenido antisemita, ahora es el turno de Meta de ser el centro de atención por su algoritmo de contenido. Según un experimento realizado por El periodico de Wall Street, el servicio de videos Reels de Instagram ofrecería «imágenes atrevidas de niños, así como videos abiertamente sexuales para adultos» para probar cuentas que seguían exclusivamente a personas influyentes adolescentes y preadolescentes, es decir, jóvenes gimnastas y porristas. Se suponía que este tipo de anuncios estaban prohibidos en las plataformas de Meta.

Para empeorar las cosas, este contenido lascivo también se mezcló con anuncios que representaban marcas estadounidenses notables como Disney, Walmart, Pizza Hut, Bumble, Match Group e incluso El periodico de Wall Street sí mismo. El informe añade que el Centro Canadiense para la Protección Infantil logró resultados similares con sus propias pruebas por separado.

Si bien Walmart y Pizza Hut aparentemente se negaron a hacer comentarios, Bumble, Match Group, Hims (minorista de medicamentos para la disfunción eréctil) y Disney retiraron sus anuncios de Meta o presionaron a la empresa para que abordara este problema. Dada la controversia anterior sobre X, los anunciantes obviamente son aún más sensibles sobre el tipo de contenido que se muestra junto a sus anuncios, especialmente para Disney, que se vio afectado tanto por X como ahora por Instagram.

En respuesta, Meta dijo a sus clientes que estaba investigando y que «pagaría por servicios de auditoría de seguridad de marca para determinar con qué frecuencia aparecen los anuncios de una empresa junto a contenido que considera inaceptable». Sin embargo, la empresa no proporcionó un calendario ni detalles sobre la prevención futura.

Si bien se podría decir que tales pruebas no necesariamente representan una experiencia de usuario real (como las empresas de tecnología tienden a discutir), la tendencia de Instagram a agregar contenido de sexualización infantil era un problema conocido internamente, incluso antes del lanzamiento de Reels, según actuales y anteriores. Empleados de Meta entrevistados por el WSJ.

El mismo grupo de personas sugirió que una solución eficaz requeriría renovar los algoritmos responsables de enviar contenido relacionado a los usuarios. Dicho esto, los documentos internos vistos por el WSJ sugirió que Meta dificultó que su equipo de seguridad aplicara cambios tan drásticos, ya que el rendimiento del tráfico es aparentemente más importante para el gigante de las redes sociales.



Source link-47