Facebook aprueba anuncios que piden muertes de niños en Brasil, según prueba


Agrandar / El presidente brasileño, Luiz Inácio Lula da Silva, besa a un niño en el escenario al final de un discurso a sus seguidores.

“Desenterrar a todas las ratas que han tomado el poder y dispararles”, decía un anuncio aprobado por Facebook apenas unos días después de que una turba irrumpiera violentamente en edificios gubernamentales en la capital de Brasil.

Esa violencia fue alimentada por afirmaciones falsas de interferencia electoral, lo que refleja los ataques en los Estados Unidos el 6 de enero de 2021. Anteriormente, el propietario de Facebook, Meta, dijo que se dedicaba a bloquear contenido diseñado para incitar a más violencia postelectoral en Brasil. Sin embargo, hoy, la organización de derechos humanos Global Witness publicó los resultados de una prueba que muestra que aparentemente Meta sigue aceptando anuncios que hacen exactamente eso.

Global Witness envió 16 anuncios a Facebook, algunos invitaban a la gente a asaltar edificios gubernamentales, otros describían las elecciones como robadas y algunos incluso pedían la muerte de niños cuyos padres votaron por el nuevo presidente de Brasil, Luiz Inácio Lula da Silva. Facebook aprobó todos los anuncios menos dos, que según la activista de amenazas digitales de Global Witness, Rosie Sharpe, demostraron que Facebook no está haciendo lo suficiente para hacer cumplir sus políticas publicitarias que restringen este tipo de contenido violento.

“Después de la violencia en Brasilia, Facebook dijo que estaban ‘monitoreando activamente’ la situación y eliminando contenido en violación de sus políticas”, dijo Sharpe en un comunicado de prensa. “Esta prueba muestra lo mal que pueden hacer cumplir lo que dicen. No hay absolutamente ninguna forma de que el tipo de contenido violento que probamos sea aprobado para su publicación por una importante empresa de redes sociales como Facebook”.

Para asegurarse de que ninguno de sus anuncios de prueba llegara a audiencias vulnerables, Global Witness eliminó los anuncios antes de que pudieran publicarse mensajes alarmantes como “Muerte a los hijos de los votantes de Lula”.

Global Witness identificó esto como un problema particularmente preocupante en Facebook, no necesariamente una debilidad de todas las plataformas sociales basadas en anuncios, al probar también el mismo conjunto de anuncios en YouTube. A diferencia de Facebook, YouTube no aprobó ninguno de los anuncios. YouTube también tomó el paso adicional de suspender las cuentas que intentaron publicar los anuncios.

“La respuesta mucho más fuerte de YouTube demuestra que es posible pasar la prueba que establecimos”, dijo Sharpe.

Ars no pudo comunicarse de inmediato con YouTube o Meta para hacer comentarios. La líder de la campaña de amenazas digitales de Global Witness, Naomi Hirst, dijo a Ars: “Es difícil tener confianza en que Facebook tomará las medidas necesarias para combatir la propagación de la desinformación y el odio en su plataforma. A pesar de las promesas de que se toman este problema en serio, nuestras investigaciones han expuesto fallas repetidas».

Meta resta importancia a los resultados de las pruebas

Un portavoz de Meta le dijo a Global Witness que el tamaño de la muestra de 16 anuncios mientras realizaba la prueba era demasiado pequeño para representar la capacidad de Facebook para hacer cumplir sus políticas publicitarias a gran escala.

«Como dijimos en el pasado, antes de las elecciones del año pasado en Brasil, eliminamos cientos de miles de piezas de contenido que violaban nuestras políticas sobre violencia e incitación y rechazamos decenas de miles de envíos de anuncios antes de que se publicaran», un Meta dijo el portavoz en el comunicado de prensa de Global Witness. «Usamos tecnología y equipos para ayudar a mantener nuestras plataformas a salvo de abusos, y constantemente refinamos nuestros procesos para hacer cumplir nuestras políticas a escala».

Hirst le dijo a Ars que Global Witness ahora ha demostrado que «antes, durante y ahora después de las recientes elecciones en Brasil», sigue siendo fácil obtener «anuncios que incitan a la violencia, información incorrecta y contenido de odio» aprobados por Facebook.

«La democracia está en riesgo si Facebook y otras empresas de redes sociales no logran detener la ola de división y violencia que florece en línea”, dijo Hirst a Ars.

En su comunicado de prensa, Global Witness parece sugerir que Facebook no se está tomando los ataques de Brasil tan en serio como la plataforma social se tomó los ataques de EE. UU. el año pasado cuando la empresa implementó «medidas de ruptura de cristales» para evitar que se propaguen disturbios civiles en Facebook.

Antes de las elecciones estadounidenses de 2020, el jefe de comunicaciones y asuntos globales de Facebook, Nick Clegg, le dijo a USA Today que Facebook había «desarrollado herramientas innovadoras que nos permiten, aunque sea por un período de tiempo temporal, arrojar una manta sobre una gran cantidad de personas». contenido que circularía libremente en nuestras plataformas, a fin de desempeñar nuestro papel de la manera más responsable posible para evitar que ese contenido, a sabiendas o no, ayude y sea cómplice de aquellos que quieren continuar con la violencia y los conflictos civiles que estamos viendo en el terreno.»

Después de que la prueba reciente de Global Witness pareció mostrar que Facebook estaba poniendo menos esfuerzo en evitar que el contenido que incitaba a la violencia inflamara los disturbios civiles en Brasil, Global Witness recomendó que Facebook y todas las demás empresas de redes sociales se comprometan a intensificar los esfuerzos de moderación de contenido con el mismo gusto mostrado después de los ataques estadounidenses.

“Global Witness hace un llamado a Facebook y otras empresas de redes sociales para que implementen de inmediato medidas de ‘romper el vidrio’ y declaren públicamente qué más están haciendo para combatir la desinformación y la incitación a la violencia en Brasil y cómo se están financiando esos esfuerzos”, dijo Sharpe.



Source link-49