Facebook no pudo evitar que los anuncios de prueba amenazaran a los trabajadores electorales de mitad de período


Es posible que los esfuerzos de integridad electoral de Meta en Facebook no hayan sido tan sólidos como se afirma. Investigadores de Cybersecurity for Democracy de la Universidad de Nueva York y el organismo de control Global Witness han revelado que el sistema de moderación automática de Facebook aprobó 15 de los 20 anuncios de prueba que amenazaban a los trabajadores electorales antes de las elecciones intermedias de Estados Unidos del mes pasado. Los experimentos se basaron en amenazas reales y utilizaron un lenguaje «claro» que era potencialmente fácil de entender. En algunos casos, la red social incluso permitió anuncios después de que se realizaron los cambios incorrectos: el equipo de investigación solo tuvo que eliminar las blasfemias y corregir la ortografía para superar los rechazos iniciales.

Los investigadores también probaron TikTok y YouTube. Ambos servicios detuvieron todas las amenazas y prohibieron las cuentas de prueba. En un experimento anterior antes de las elecciones de Brasil, Facebook y YouTube permitieron que se enviara toda la información errónea sobre las elecciones durante un paso inicial, aunque Facebook rechazó hasta el 50 por ciento de los envíos de seguimiento.

En un comunicado a Engadget, un portavoz dijo que los anuncios eran una «pequeña muestra» que no representaba lo que los usuarios veían en plataformas como Facebook. La empresa sostuvo que su capacidad para contrarrestar las amenazas electorales «supera» a la de sus rivales, pero solo respaldó la afirmación señalando citas que ilustraban la cantidad de recursos comprometidos para detener las amenazas violentas, no la efectividad de esos recursos.

Los anuncios no habrían hecho daño, ya que los experimentadores tenían el poder de sacarlos antes de que salieran a la luz. Aún así, el incidente destaca las limitaciones de la dependencia parcial de Meta de la moderación de la IA para combatir la desinformación y el discurso de odio. Si bien el sistema ayuda a los moderadores humanos de Meta a lidiar con grandes cantidades de contenido, también corre el riesgo de dar luz verde a los anuncios que podrían no ser detectados hasta que sean visibles para el público. Eso no solo podría permitir que florezcan las amenazas, sino también invitar a multas del Reino Unido y otros países que planean penalizar a las empresas que no eliminen rápidamente el contenido extremista.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47