Facebook Parent Meta impactó los derechos humanos de los palestinos, según un informe


Qué esta pasando

Meta publicó un informe que muestra cómo el gigante de las redes sociales impactó en los derechos humanos en el conflicto israelí-palestino en mayo de 2021.

por qué importa

La moderación de contenido en idiomas diferentes al inglés ha sido un desafío constante para las empresas de redes sociales. Meta está realizando cambios en respuesta a los hallazgos.

La empresa matriz de Facebook, Meta, cometió errores de moderación de contenido que afectaron los derechos humanos de los palestinos durante un brote de violencia que ocurrió en la Franja de Gaza en mayo de 2021, según muestra un informe publicado el jueves.

Meta le pidió a la consultora Business for Social Responsibility que revisara cómo las políticas y acciones de la compañía afectaron a los palestinos e israelíes después de que su junta de supervisión, que examina algunas de las decisiones de moderación de contenido más difíciles de la compañía de redes sociales, recomendó que la compañía lo hiciera.

El informe mostró que las acciones de Meta eliminaron o redujeron la capacidad de los palestinos para disfrutar de sus derechos humanos «a la libertad de expresión, la libertad de reunión, la participación política y la no discriminación». También subraya los desafíos continuos que enfrenta la empresa cuando se trata de moderar contenido en idiomas distintos del inglés. Meta posee la red social más grande del mundo, Facebook, el servicio de fotos y videos Instagram y la aplicación de mensajería WhatsApp.

BSR dijo en el informe que habló con las partes interesadas afectadas y que muchos compartieron «su opinión de que Meta parece ser otra entidad poderosa que reprime su voz».

Los hallazgos describen varios errores de moderación de contenido que cometió Meta en medio del conflicto palestino-israelí el año pasado. El contenido de las redes sociales en árabe «tuvo una mayor aplicación excesiva», lo que resultó en que la compañía eliminara por error las publicaciones de los palestinos. BSR también encontró que las «tasas de detección proactiva de contenido en árabe potencialmente violatorio fueron significativamente más altas que las tasas de detección proactiva de contenido en hebreo potencialmente violador».

El contenido en hebreo experimentó una «mayor falta de cumplimiento» porque Meta no tenía lo que se conoce como un «clasificador» para «discurso hostil» en ese idioma. Tener un clasificador ayuda a los sistemas de inteligencia artificial de la empresa a identificar automáticamente las publicaciones que probablemente violen sus reglas. Meta también perdió empleados de habla hebrea y subcontrató la moderación de contenido.

Meta también eliminó por error contenido que no violaba sus reglas. El impacto sobre los derechos humanos de «estos errores fue más grave dado un contexto en el que derechos como la libertad de expresión, la libertad de asociación y la seguridad tenían una mayor importancia, especialmente para activistas y periodistas», señala el informe.

El informe también señaló otros errores importantes de moderación de contenido en las plataformas de Meta. Por ejemplo, Instagram prohibió brevemente #AlAqsa, un hashtag utilizado para hacer referencia a la Mezquita Al-Aqsa en la Ciudad Vieja de Jerusalén. Los usuarios también publicaron discursos de odio e incitación a la violencia contra palestinos, árabes israelíes, judíos israelíes y comunidades judías fuera de la región. Los periodistas palestinos también informaron que sus cuentas de WhatsApp fueron bloqueadas.

Sin embargo, BSR no encontró sesgos intencionales en la empresa o entre los empleados de Meta, pero sí encontró «varios casos de sesgos no intencionales donde la política y la práctica de Meta, combinadas con dinámicas externas más amplias, conducen a diferentes impactos sobre los derechos humanos en palestinos y árabes». usuarios».

Meta dijo que está haciendo cambios para abordar los problemas descritos en el informe. La compañía, por ejemplo, dijo que continuará desarrollando e implementando clasificadores de aprendizaje automático en hebreo.

«Creemos que esto mejorará significativamente nuestra capacidad para manejar situaciones como esta, donde vemos picos importantes en la violación de contenido», dijo la directora de derechos humanos de Meta, Miranda Sissons, en una publicación de blog.



Source link-43