La Junta de Supervisión critica la moderación automatizada de Meta en la guerra entre Israel y Hamas


Hoy, la Junta de Supervisión de Meta publicó su primera decisión de emergencia sobre la moderación de contenido en Facebook, impulsada por el conflicto entre Israel y Hamás.

Los dos casos se centran en dos contenidos publicados en Facebook e Instagram: uno que muestra las consecuencias de un ataque al hospital Al-Shifa en Gaza y el otro que muestra el secuestro de un rehén israelí, que la empresa había retirado inicialmente y luego restaurado una vez que la junta se hizo cargo de los casos. El vídeo del secuestro había sido eliminado por violar la política de Meta, creada después de los ataques de Hamás del 7 de octubre, de no mostrar los rostros de los rehenes, así como las políticas de larga data de la compañía sobre la eliminación de contenido relacionado con “organizaciones e individuos peligrosos”. » La publicación del Hospital Al-Shifa fue eliminada por violar las políticas de la empresa en torno a imágenes violentas.

En los fallos, la Junta de Supervisión apoyó las decisiones de Meta de restablecer ambos contenidos, pero apuntó a algunas de las otras prácticas de la compañía, particularmente los sistemas automatizados que utiliza para encontrar y eliminar contenido que viola sus reglas. Para detectar contenido que incita al odio o que incita a la violencia, las plataformas de redes sociales utilizan «clasificadores», modelos de aprendizaje automático que pueden marcar o eliminar publicaciones que violan sus políticas. Estos modelos constituyen un componente fundamental de muchos sistemas de moderación de contenido, particularmente porque hay demasiado contenido para que un ser humano pueda tomar una decisión sobre cada publicación.

«Nosotros, como junta, hemos recomendado ciertos pasos, incluida la creación de un centro de protocolo de crisis, en decisiones anteriores», dijo a WIRED Michael McConnell, copresidente de la Junta de Supervisión. “La automatización va a permanecer. Pero mi esperanza sería proporcionar intervención humana estratégicamente en los puntos donde los sistemas automatizados cometen errores con mayor frecuencia, y [that] son de particular importancia debido al mayor interés público y la información en torno a los conflictos”.

Ambos videos fueron eliminados debido a cambios en estos sistemas automatizados para hacerlos más sensibles a cualquier contenido proveniente de Israel y Gaza que pueda violar las políticas de Meta. Esto significa que era más probable que los sistemas eliminaran por error contenido que de otro modo debería haber permanecido activo. Y estas decisiones pueden tener implicaciones en el mundo real.

«El [Oversight Board] «Cree que las preocupaciones por la seguridad no justifican pecar de eliminar contenido gráfico que tiene el propósito de crear conciencia o condenar posibles crímenes de guerra, crímenes contra la humanidad o violaciones graves de los derechos humanos», señala el fallo de Al-Shifa. “Esas restricciones pueden incluso obstruir la información necesaria para la seguridad de las personas sobre el terreno en esos conflictos”. La política actual de Meta es retener contenido que pueda mostrar crímenes de guerra o crímenes contra la humanidad durante un año, aunque la junta dice que Meta está en el proceso de actualizar sus sistemas de documentación.

«Damos la bienvenida a la decisión de hoy de la Junta de Supervisión sobre este caso», escribió Meta en una publicación del blog de la empresa. «Tanto la expresión como la seguridad son importantes para nosotros y las personas que utilizan nuestros servicios».



Source link-46