Facebook enfrenta suspensión en Kenia por incitación al odio por motivos étnicos


La Comisión Nacional de Cohesión e Integración de Kenia (NCIC), una agencia gubernamental que tiene como objetivo erradicar la discriminación étnica o racial entre las 45 tribus del país, le ha dado a Facebook siete días para abordar el discurso de odio relacionado con las elecciones del próximo mes en su plataforma. Si la red social no lo hace, se enfrenta a la suspensión en el país. La advertencia de la agencia se produce poco después de que la ONG internacional Global Witness y la organización legal sin fines de lucro Foxglove publicaran un informe que detalla cómo Facebook aprobó anuncios escritos para instigar a la violencia étnica tanto en inglés como en swahili.

Las organizaciones unieron fuerzas para realizar un estudio que prueba la capacidad de Facebook para detectar discursos de odio y llamamientos a la violencia étnica antes de las elecciones de Kenia. Como explicó Global Witness en su informe, la política del país está polarizada y étnicamente impulsada: después de las elecciones de 2007, por ejemplo, 1.300 personas murieron y cientos de miles más tuvieron que huir de sus hogares. Mucha más gente usa las redes sociales hoy en día en comparación con 2007, y más del 20 por ciento de la población de Kenia está en Facebook, donde el discurso de odio y la desinformación son problemas importantes.

Los grupos decidieron no publicar los anuncios exactos que enviaron para la prueba porque eran muy ofensivos, pero usaron ejemplos de la vida real del discurso de odio que se usa comúnmente en Kenia. Incluyen comparaciones de grupos tribales específicos con animales y piden la violación, matanza y decapitación de sus miembros. «Para nuestra sorpresa y preocupación», informó Global Witness, «todos los ejemplos de incitación al odio en ambos [English and Swahili] fueron aprobados». El NCIC dijo que el informe de las ONG corrobora sus propios hallazgos.

Después de que las organizaciones le pidieron a Facebook un comentario sobre lo que había descubierto y, por lo tanto, le dieron a conocer el estudio, Meta publicó una publicación que detalla cómo se está preparando para las elecciones de Kenia. En él, la compañía dijo que ha creado una tecnología de detección de contenido más avanzada y ha contratado equipos dedicados de hablantes de swahili para ayudar a «eliminar contenido dañino de forma rápida y a gran escala». Para ver si Facebook realmente implementó cambios que mejoraron su sistema de detección, las organizaciones volvieron a enviar sus anuncios de prueba. Fueron aprobados una vez más.

En un comunicado enviado tanto a Global Witness como a gizmodo, Meta dijo que ha tomado «medidas amplias» para «captar el discurso de odio y el contenido incendiario en Kenia» y que la compañía está «intensificando estos esfuerzos antes de las elecciones». Sin embargo, también dijo que habrá casos en los que se pierdan cosas «ya que tanto las máquinas como las personas cometen errores».

Global Witness dijo que los hallazgos de su estudio siguen un patrón similar que descubrió anteriormente en Myanmar, donde Facebook desempeñó un papel en permitir los llamados a la limpieza étnica contra los musulmanes rohingya. También sigue un patrón similar que la organización descubrió en Etiopía en el que los malos actores usaban Facebook para incitar a la violencia. Las organizaciones y la denunciante de Facebook, Frances Haugen, ahora están pidiendo a Facebook que implemente el paquete de medidas de emergencia «Break the Glass» que tomó después del ataque del 6 de enero de 2021 en el Capitolio de los EE. UU. También están pidiendo a la red social que suspenda los anuncios digitales pagados en Kenia hasta el final de las elecciones el 9 de agosto.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado.



Source link-47