La Junta de Supervisión de Meta expresa su preocupación por la moderación automatizada del discurso de odio


ha expresado su preocupación por la moderación automatizada y al mismo tiempo anuló la decisión de la empresa de dejar una publicación de negación del Holocausto en Instagram. La negación del Holocausto se considera discurso de odio según las políticas de Meta. La publicación en cuestión mostraba a Calamardo de Bob Esponja y pretendía incluir hechos reales sobre el Holocausto. Sin embargo, las afirmaciones «eran descaradamente falsas o tergiversaron hechos históricos», dijo la Junta de Supervisión.

Los usuarios denunciaron la publicación seis veces después de que apareció por primera vez en septiembre de 2020, pero en cuatro casos los sistemas de Meta determinaron que el contenido no violaba las reglas o cerraron el caso automáticamente. A principios de 2020, cuando se apoderó de la pandemia de COVID-19, Meta comenzó a cerrar automáticamente las revisiones de contenido para reducir la carga de trabajo de los revisores humanos y liberar ancho de banda para la revisión manual de informes de alto riesgo. De todos modos, dos de los informes de la publicación de Calamardo también fueron considerados no violatorios por revisores humanos.

En mayo pasado, un usuario presentó un recurso contra la decisión de Meta de dejar el contenido ofensivo en Instagram. Pero Meta volvió a cerrar automáticamente esta apelación debido a sus políticas de automatización de COVID-19, según la Junta de Supervisión. Luego, el usuario apeló a la junta.

La junta llevó a cabo una evaluación del contenido de negación del Holocausto en las plataformas de Meta y descubrió que el meme de Calamardo se utilizaba para difundir varios tipos de narrativas antisemitas. Señala que algunos usuarios intentan evadir la detección y continúan difundiendo contenido que niega el Holocausto mediante el uso de ortografías alternativas de palabras (como reemplazar letras con símbolos) y dibujos animados y memes.

La Junta de Supervisión dijo que le preocupa que Meta continuara empleando sus políticas de automatización de COVID-19 a partir de mayo pasado, «mucho después de que las circunstancias las justificaran razonablemente». También citó inquietud sobre «la efectividad y precisión de los sistemas de moderación de Meta para eliminar el contenido que niega el Holocausto de sus plataformas». Señala que los revisores humanos no pueden etiquetar detalladamente el contenido ofensivo como «negación del Holocausto» (dichas publicaciones se filtran en un grupo de «discurso de odio»). La junta también quiere saber más sobre la capacidad de la empresa para «priorizar la aplicación precisa del discurso de odio a un nivel de política granular», a medida que se inclina más.

La junta recomendó que Meta «tome medidas técnicas» para asegurarse de medir de manera sistemática y suficiente su precisión al hacer cumplir el contenido que niega el Holocausto. Eso incluye recopilar información más granular. La junta también pidió a Meta que confirmara públicamente si había cesado todas las políticas de automatización de COVID-19 que estableció durante el inicio de la pandemia.

Cuando se le pidió un comentario, Meta dirigió a Engadget a la decisión de la junta en su sitio de transparencia. La compañía acepta que dejó la publicación ofensiva en Instagram por error y, en el momento en que la junta tomó el caso, Meta dijo que había eliminado el contenido. Tras la decisión de la junta sobre el caso, Meta dice que «iniciará una revisión de contenido idéntico con contexto paralelo. Si determinamos que tenemos la capacidad técnica y operativa para tomar medidas sobre ese contenido también, lo haremos con prontitud». Planea revisar las otras recomendaciones de la junta y publicar una actualización más adelante.



Source link-47