Facebook corre el riesgo de ser prohibido en Kenia por no detener el discurso de odio – TechCrunch


Actualizado a las 9:30 a. m. ET, 30 de julio: El ministro del gabinete de TIC de Kenia ha dijo el país no tiene planes de cerrar Internet o prohibir Facebook. Sin embargo, no reveló cómo estaba respondiendo el gobierno a la difusión del discurso de odio en las redes sociales.

El organismo de control de la cohesión étnica de Kenia, la Comisión Nacional de Cohesión e Integración (NCIC), ha ordenado a Facebook que detenga la propagación del discurso de odio en su plataforma dentro de siete días o enfrentará la suspensión en el país de África Oriental.

El organismo de control estaba reaccionando a un informe del grupo de defensa Global Witness y Foxglove, una firma legal sin fines de lucro, que ha señalado la incapacidad de Facebook para detectar anuncios de discurso de odio. Esto ocurre cuando se acercan las elecciones generales nacionales del país.

El informe de Global Witness corroboró los propios hallazgos del NCIC de que Meta, la empresa matriz de Facebook, tardó en eliminar y prevenir el contenido odioso, lo que avivó un entorno político ya volátil. El NCIC ahora le ha pedido a Meta que aumente la moderación antes, durante y después de las elecciones, mientras le da una semana para cumplir o ser prohibido en el país.

Entre los mandatos del NCIC, que se formó después de la violencia postelectoral de 2007 que dejó 1300 kenianos muertos, está hacer recomendaciones sobre medidas correctivas contra entidades o personas que perpetran y perpetúan discursos de odio. Hace unos meses, prohibió el uso de algunas palabras codificadas que supuestamente alimentan la tensión étnica.

“Facebook está violando las leyes de nuestro país. Se han permitido ser un vector de discurso e incitación al odio, información errónea y desinformación”, dijo el comisionado del NCIC, Danvas Makori.

Global Witness y Foxglove también pidieron a Meta que detenga los anuncios políticos y que use medidas de «romper el cristal», los métodos de moderación de emergencia más estrictos que usó para detener la desinformación y los disturbios civiles durante las elecciones estadounidenses de 2020.

En Kenia, Facebook tiene una penetración del 82%, lo que la convierte en la segunda red social más utilizada después de WhatsApp.

Los modelos de inteligencia artificial de Facebook no detectan llamadas a la violencia

Para probar la afirmación de Facebook de que sus modelos de IA pueden detectar el discurso de odio, Global Witness presentó 20 anuncios que pedían violencia y decapitaciones, en inglés y swahili, todos los cuales, excepto uno, fueron aprobados. El grupo de derechos humanos dice que usó anuncios porque, a diferencia de las publicaciones, se someten a un proceso de revisión y moderación más estricto. También podrían eliminar los anuncios antes de que se publiquen.

“Todos los anuncios que enviamos violan los estándares comunitarios de Facebook, calificando como discurso de odio y llamadas a la violencia basadas en la etnia. Gran parte del discurso fue deshumanizante, comparando grupos tribales específicos con animales y llamando a la violación, el sacrificio y la decapitación”, dijo Global Witness en un comunicado.

Tras los hallazgos, Ava Lee, líder de la campaña Digital Threats to Democracy de Global Witness, dijo: «Facebook tiene el poder de hacer o deshacer democracias y, sin embargo, una y otra vez hemos visto que la empresa prioriza las ganancias sobre las personas».

“Nos horrorizó descubrir que incluso después de afirmar que mejoraría sus sistemas y aumentaría los recursos antes de las elecciones de Kenia, seguía aprobando llamamientos abiertos a la violencia étnica. Esto no es único. También hemos visto la misma incapacidad para funcionar correctamente en Myanmar y Etiopía en los últimos meses. Las posibles consecuencias de la inacción de Facebook en torno a las elecciones en Kenia y en otras próximas elecciones en todo el mundo, desde Brasil hasta las elecciones intermedias de EE. UU., son aterradoras”.

Entre otras medidas, Global Witness está pidiendo a Facebook que duplique la moderación del contenido.

En respuesta, el gigante de las redes sociales dice que está invirtiendo en personas y tecnología para detener la desinformación y el contenido dañino.

Dijo que había «contratado a más revisores de contenido para revisar el contenido de nuestras aplicaciones en más de 70 idiomas, incluido el swahili». En seis meses hasta el 30 de abril, la empresa informó que eliminó más de 37 000 piezas de contenido que violaban las políticas de incitación al odio y otras 42 000 por promover la violencia y la incitación en Facebook e Instagram.

Meta le dijo a TechCrunch que también está trabajando en estrecha colaboración con las partes interesadas cívicas, como las comisiones electorales y las organizaciones de la sociedad civil, para ver «cómo Facebook e Instagram pueden ser una herramienta positiva para el compromiso cívico y los pasos que pueden tomar para mantenerse seguros mientras usan nuestras plataformas».

Otras redes sociales como Twitter y, recientemente, TikTok también están en el punto de mira por no desempeñar un papel más proactivo en la moderación del contenido y detener la propagación del discurso de odio, que se percibe que alimenta la tensión política en el país.

El mes pasado, un estudio de la Fundación Mozilla descubrió que TikTok alimenta la desinformación en Kenia. Mozilla llegó a la conclusión después de revisar 130 videos muy reproducidos que compartían contenido lleno de discursos de odio, incitación y desinformación política, lo que contradecía la política de TikTok contra el discurso de odio y el intercambio de contenido discriminatorio, incitador y sintético.

En el caso de TikTok, Mozilla concluyó que la falta de familiaridad de los moderadores de contenido con el contexto político del país fue una de las principales razones por las que no se eliminaron algunas publicaciones incendiarias, lo que permitió la difusión de desinformación en la aplicación social.

Los llamados a las plataformas de redes sociales para que empleen medidas más estrictas se producen a medida que aumentan las discusiones políticas acaloradas, las opiniones divergentes y el discurso de odio absoluto de políticos y ciudadanos por igual en el período previo a las elecciones del 9 de agosto.





Source link-48