La Junta de Supervisión de Meta intensifica el informe de negación del Holocausto


La Junta de Supervisión de Meta ha puesto bajo la atención un nuevo caso, que considera relevante para sus prioridades estratégicas. En una publicación, la junta anunció que durante las próximas semanas revisará y aceptará comentarios públicos para un caso que apela la no eliminación por parte de Meta de contenido que niega el Holocausto en sus plataformas. En concreto, este caso se refiere a una publicación que circula en Instagram que pone un globo de diálogo sobre una imagen con Calamardo, personaje de Bob Esponja, negando que hubiera ocurrido el Holocausto. Su título y hashtags también estaban dirigidos a «audiencias geográficas específicas».

La publicación fue publicada originalmente por una cuenta con 9.000 seguidores en septiembre de 2020 y fue vista alrededor de 1.000 veces. Unas semanas después, Meta revisó sus políticas de contenido para prohibir la negación del Holocausto. A pesar de las nuevas reglas y de que varios usuarios lo informaron, la publicación no se eliminó rápidamente. Algunos de los informes se cerraron automáticamente debido a las «políticas de automatización relacionadas con COVID-19» de la compañía, que se implementaron para que el número limitado de revisores humanos de Meta pueda priorizar los informes considerados de «alto riesgo». A otros periodistas se les dijo automáticamente que el contenido no viola las políticas de Meta.

Uno de los usuarios que denunció la publicación optó por apelar el caso ante la Junta, que ha determinado que está en línea con sus esfuerzos por priorizar el «discurso de odio contra grupos marginados». La Junta ahora está buscando comentarios sobre varios temas relevantes, como el uso de la automatización para tomar con precisión medidas coercitivas contra el discurso de odio y la utilidad de los informes de transparencia de Meta.

En una publicación en la página de transparencia de Meta, la compañía admitió que dejó el contenido después de la revisión inicial. Sin embargo, finalmente determinó que lo abandonaron por error y que violó su política de incitación al odio. Desde entonces, la compañía eliminó el contenido de sus plataformas, pero prometió implementar la decisión de la junta. La Junta de Supervisión de Meta puede emitir recomendaciones de políticas basadas en su investigación, pero no son vinculantes y la empresa no está obligada a seguirlas. Con base en las preguntas que la Junta quiere que el público responda, podría evocar recomendaciones que cambiarían la forma en que Meta usa la automatización para controlar Instagram y Facebook.



Source link-47