Herramientas de moderación de Facebook no eliminan publicaciones de grupos terroristas en Kenia


Las fuentes de noticias de Facebook se personalizan en gran medida según la red social y los intereses de los usuarios, pero un nuevo informe(Se abre en una nueva ventana) sobre la actividad terrorista en África oriental sostiene que el país y el idioma juegan un papel más importante de lo esperado en lo que la gente ve.

La plataforma se basa en algoritmos de moderación para eliminar el discurso de odio y la violencia, pero los sistemas luchan por detectarlos en publicaciones que no están en inglés, dice el Instituto para el Diálogo Estratégico (ISD).

Dos grupos terroristas en Kenia, al-Shabaab y el Estado Islámico, explotan estas limitaciones de moderación de contenido para publicar propaganda de reclutamiento y videos impactantes, muchos de los cuales están en árabe, somalí y kiswahili.

“Las brechas en la moderación del idioma no solo favorecen a los gobiernos que cometen abusos contra los derechos humanos o difunden discursos de odio, sino que también están dando como resultado demostraciones descaradamente abiertas de apoyo a los grupos terroristas”, dice el informe de ISD.

El informe estudió el contenido de Facebook publicado en varios países de África Oriental, incluidos Somalia, Etiopía, Uganda y Kenia. (Crédito: Getty Images)

Con las próximas elecciones en Kenia el 9 de agosto, el estudio cita 30 páginas públicas de Facebook de grupos militantes que intencionalmente siembran desconfianza en la democracia y el gobierno. Los perfiles más activos de al-Shabaab y el Estado Islámico están llamando a la violencia y la discordia antes de las elecciones y, en última instancia, estableciendo un califato en África Oriental.

La investigación también encontró que un video publicado en la página oficial de al-Shabaab que mostraba a un hombre somalí recibiendo un disparo en la parte posterior de la cabeza fue compartido libremente por cinco usuarios diferentes. El video estaba marcado con la marca reconocible de al-Shabaab, que cualquier sistema de moderación de contenido que opere en esa región debería estar obligado a reconocer. De los 445 usuarios que publicaron en árabe, kiswahili y somalí, todos pudieron compartir libremente una combinación de contenido no oficial, oficial y personalizado que apoyaba claramente a al-Shabaab y al Estado Islámico.

Un experimento interno realizado por Facebook en 2019 mostró resultados igualmente desastrosos al crear una cuenta ficticia en India. el poste de washington reportado(Se abre en una nueva ventana) el año pasado. En un memorándum incluido en los Documentos de Facebook, una colección de documentos internos hechos públicos por la denunciante Frances Haugen, los empleados de Facebook informaron estar conmocionados por la pornografía suave, el discurso de odio y la «asombrosa cantidad de cadáveres» que se muestran a un nuevo usuario en India.

En contraste, el algoritmo sugirió una gran cantidad de publicaciones inocuas a un nuevo usuario en los EE. UU., una marcada diferencia que iluminó la forma en que la plataforma se comporta para los usuarios en diferentes países.

Las brechas en la moderación del contenido tienen el potencial de influir negativamente en el sentimiento de los votantes a favor de los grupos extremistas violentos. Lo mismo sucedió en Myanmar en 2016-2018, donde miembros del ejército coordinaron una campaña de incitación al odio en Facebook dirigida al grupo minoritario mayoritariamente musulmán rohingya.

Recomendado por Nuestros Editores

Las publicaciones alentaron un genocidio del pueblo rohingya, que finalmente resultó en miles de muertes y una crisis mundial de refugiados, ya que al menos 750,000 se vieron obligados a huir. El guardián reportado(Se abre en una nueva ventana). En 2021, los refugiados en los EE. UU. y el Reino Unido demandaron a Facebook(Se abre en una nueva ventana) por difundir discursos de odio por $ 150 mil millones.

Si bien moderar la plataforma de redes sociales más grande del mundo es un desafío, el informe de ISD(Se abre en una nueva ventana) dice que identificar las brechas en la moderación del contenido es un primer paso fundamental, que incluye evaluar los idiomas y las imágenes que no detectan los sistemas de Facebook. En segundo lugar, el informe recomienda reforzar la identificación y eliminación de contenido específico de terroristas, particularmente en países con alto riesgo de violencia o influencias electorales.

Finalmente, el ISD recomienda no depender únicamente de Facebook. El desarrollo de una organización independiente de moderación de contenido ayudaría a las empresas tecnológicas a detectar lagunas en las políticas de moderación y, al mismo tiempo, les ayudaría a comprender el papel que desempeñan en el ecosistema regional, más allá de un grupo o plataforma específicos. Si bien Facebook es el centro de la actividad peligrosa, otras aplicaciones como Twitter y YouTube también juegan un papel, según el informe.

Facebook no respondió de inmediato a una solicitud de comentarios.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38