Masacre de rohingya: «Facebook desempeñó un papel central en el aumento del clima de odio» en Birmania


En un informe publicado el jueves 29 de septiembre, Amnistía Internacional analiza el papel catalizador que jugó Facebook en las masacres de rohynga en Birmania en 2017, abusos que empujaron a 700.000 de ellos a emigrar a Bangladesh. En este documento condenatorio, la ONG británica describe a una empresa que ignora los derechos humanos. En consecuencia, le pide a Meta, la empresa matriz de Facebook, que compense a los refugiados, muchos de los cuales aún viven en campamentos de Bangladesh, y lanza, el jueves, una petición en línea para presionar a la empresa estadounidense.

Al rastrear el hilo de los eventos que condujeron al desastre y al entrevistar a muchos Rohingya, Amnistía demuestra la inacción de Facebook ante el aumento de publicaciones racistas y violentas dirigidas a la minoría musulmana, y esto desde mucho antes de 2017. Señala la debilidad de la moderación de la red social y denuncia su tendencia a promover mensajes de odio.

Si bien hoy en día Meta proporciona la Mundo cooperar con la investigación de las Naciones Unidas, destacando sus esfuerzos recientes para mejorar el clima para los debates en línea en Birmania con la ayuda de la “retroalimentación de la sociedad civil local e instituciones internacionales”abogado e investigador Patricio de Brunél, autor del informe de Amnistía, describe a una empresa perfectamente consciente del daño causado al debate público, basándose en particular en los documentos actualizados por la denunciante Frances Haugen.

Lea también: Artículo reservado para nuestros suscriptores «Facebook Files»: en Birmania, los límites de las medidas de la red social contra los llamados al odio

Las masacres de 2017 fueron orquestadas por el ejército birmano. ¿Por qué consideramos que Facebook tiene su parte de responsabilidad?

Nuestra encuesta muestra que Facebook ha desempeñado un papel central en el aumento del clima de odio desde 2012. Para muchos birmanos, la red social era el único servicio de Internet accesible, y Facebook amplificó considerablemente los mensajes violentos allí. Algunos actores buscaron deshumanizar a los rohingya, lo que resultó en la desinhibición de los militares en el terreno responsable de la limpieza étnica y las violaciones masivas.

¿Cómo favorece el algoritmo de Facebook los mensajes de odio?

Al elegir qué mensajes mostrar en el feed de cada usuario, destaca el contenido que genera muchas reacciones, ya sean estas reacciones positivas o negativas, que es la esencia del contenido de odio. Facebook les dio una audiencia sin precedentes en Birmania.

¿Cómo podrían los moderadores de Facebook permitir que se generen llamados claros al asesinato, incluso después de que se les informara sobre estas publicaciones?

Esto es sintomático del enfoque de Facebook en los países del Sur: allí el personal dedicado a la moderación es muy limitado, al igual que los recursos invertidos en inteligencia artificial encargada de identificar el discurso del odio y las herramientas lingüísticas. Sin embargo, incluso si Facebook hubiera puesto tantos recursos en Birmania como en Occidente, dudamos que hubiera sido suficiente. La moderación es un ejercicio problemático para Facebook, en todo el mundo.

Lea también: «Bangladesh: Rohingya, la trampa del exilio», en Arte.tv, muestra la vida sin horizonte de los refugiados musulmanes birmanos

¿Estaba consciente Facebook de los riesgos en Birmania?

La empresa recibió decenas de advertencias. Los actores locales se apresuraron a denunciar campañas de mensajes de odio orquestadas por los militares y sus aliados, como Ma Ba Tha, la Asociación para la Protección de la Raza y la Religión. Año tras año, activistas de derechos humanos e investigadores de universidades occidentales han emitido nuevas alertas, llegando incluso a visitar la sede de Facebook. El mensaje transmitido fue el siguiente: si no se hace nada, Birmania podría convertirse en la nueva Ruanda. Según varios empleados de Facebook que entrevistamos, es imposible que estos mensajes no se escucharan en los niveles superiores de la empresa.

¿Cómo, entonces, se puede explicar la inacción de la empresa?

Durante estos años, Facebook se ha convertido en una empresa increíblemente rica, cuyo interés era priorizar su crecimiento, aunque eso significara descuidar los derechos humanos. Su cultura era «Muévete rápido y rompe cosas» [« move fast and break things »]. A su llegada a este país atravesado por conflictos étnicos especialmente sensibles, la empresa no estudió los riesgos inducidos por sus prácticas, ni testeó sus algoritmos.

La única vez que actuó fue en 2014. Después de varios días de disturbios mortales, varios llamados oficiales a una moderación más efectiva, el gobierno se vio obligado a cerrar Facebook en Birmania. Los ingresos de la red social se vieron amenazados, la empresa despertó de repente y buscó hacer algo, o demostrar que estaba haciendo algo. Por sugerencia de activistas locales, creó un paquete de calcomanías de flores virtuales. Los activistas por la paz pueden haberlos metido en conversaciones odiosas con la esperanza de apaciguarlos. Pero, según los rohingyas que entrevistamos, tuvo el efecto contrario: el algoritmo de Facebook aumentó la circulación de estos mensajes violentos.

Lea la encuesta: Artículo reservado para nuestros suscriptores Cómo el algoritmo de Facebook escapa al control de sus creadores

¿Qué se debe hacer para evitar estas desviaciones del algoritmo?

La compañía argumenta que mejorar la moderación es suficiente para corregir este problema, pero, según nuestras observaciones, esto es bastante insuficiente: es el algoritmo el que debe cambiar, ya que no es neutral, según admite el propio Facebook. Sin embargo, su receta está en el corazón del modelo económico de la empresa.

Para obligar a Facebook a cambiarlo, solo vemos una solución: la regulación estatal. En la aplicación de Facebook, por ejemplo, el hilo de contenido viral debería ser opcional y no aparecer primero. Esto es aún más crucial dado que el discurso de odio continúa prosperando en la plataforma, tanto en Birmania como en India o Etiopía. El futuro nos preocupa, ya que actualmente Facebook está acelerando la circulación de los videos más virales para competir con TikTok.

Leer también Exacciones contra los rohingya en Birmania: Facebook en la mira de un juez estadounidense

¿Existe la posibilidad de que Facebook acepte compensar a los rohingya?

Su responsabilidad jurídica nos parece clara. Varios grupos rohingya han iniciado demandas bien fundamentadas en el Reino Unido y los EE. UU. La mayoría de los refugiados permanecen estacionados en Bangladesh, en condiciones deplorables, incluso se les niega el acceso a la educación. El dinero de Facebook podría usarse para remediar este problema. Pero cuando hablo con ellos, estos refugiados también me dicen que les gustaría que las cosas cambiaran en profundidad. Tal problema no debe repetirse.

Actualización 29 de septiembre a las 12:40 p. m.: agregó la reacción de Facebook al informe de Amnistía Internacional.

Leer también Artículo reservado para nuestros suscriptores En Facebook, el fiasco de la moderación en árabe



Source link-5