Instan a Facebook e Instagram a reevaluar las prácticas de moderación por el Covid-19


I’junta de supervisión (“consejo de supervisión”) de Meta, una especie de Tribunal Supremo integrado por expertos independientes encargados por la empresa para examinar sus decisiones de moderación, emitió un informe detallado el jueves 20 de abril sobre las reglas establecidas por Facebook e Instagram en temas relacionados con el Covid-19. Como tiene la facultad, el consejo de vigilancia ha emitido una serie de recomendaciones, a las que el Meta debe dar respuesta en un plazo de dos meses.

La organización señala que las medidas excepcionales de moderación puestas en marcha por Meta, en particular sancionar la desinformación sobre el Covid-19, vacunas y tratamientos, estaban justificadas, “dada la magnitud de la crisis sanitaria y los riesgos, identificados por los epidemiólogos, que planteaba la desinformación” al público en general. Pero el consejo cree que la compañía no hizo lo suficiente para comprender cómo el funcionamiento de Facebook e Instagram habían podido promover la desinformación. Este análisis debe realizarse lo más rápido posible, cree el consejo, y debe centrarse no solo en los riesgos para la salud pública, sino también en la libertad de expresión y el debate público sobre políticas de salud.

Reglas únicas en todo el mundo

En hueco, el informe subraya un punto de desacuerdo con Meta: la voluntad del gigante de las redes sociales de unificar sus prácticas de moderación, aplicando las mismas reglas en todo el mundo, para hacerlas más simples y legibles. La junta de supervisión señala que, si bien estos objetivos son legítimos, la situación pandémica muy diferente en cada país del mundo finalmente hará que sea necesario un enfoque más localizado. “El cabildo insta al Meta a comenzar a trabajar en un plan de moderación transitorio, cuando se levante el estado de emergencia sanitaria por la pandemia [par l’OMS]para reflejar mejor las diferencias en las circunstancias locales e identificar mejor los riesgos inminentes de daño sin comprometer la libertad de expresión”.

Desde el comienzo de la pandemia, Meta ha identificado ochenta tipos de mensajes relacionados con el Covid-19 que están sujetos a reglas de moderación específicas, por ejemplo, los que niegan la existencia del Covid-19, los que afirman que las máscaras son peligrosas o incluso los que niegan la vínculo entre la muerte de una persona y la enfermedad. “Hacemos un llamado a Meta para que reevalúe los riesgos que representa cada [de ces quatre-vingts types de messages]escribe la pizarra, y lanzar una consulta amplia que incluya un mecanismo para escuchar las opiniones disidentes. »

A fines de noviembre de 2022, la red social competidora Twitter había abolido pura y simplemente todas las reglas de moderación con respecto a la desinformación relacionada con Covid, poco después de su adquisición por parte del multimillonario Elon Musk. Una decisión criticada en su momento por todos los especialistas en salud pública y desinformación.

Lea también: Twitter ha puesto fin a su política contra la desinformación sobre el Covid-19

Herramientas mal adaptadas según la “junta de control”

La junta de supervisión también señala en su informe que algunas de las herramientas que usa Meta para limitar la difusión de información errónea, como reducir su visibilidad en los algoritmos de recomendación de contenido, pueden no ser adecuadas. Estas reducciones en la visibilidad serían relativamente ineficaces “porque el contenido que publican los usuarios [ayant une importante communauté] siguen siendo vistos por mucha gente”estima la organización, que también apunta que la imposibilidad de impugnar estas caídas de visibilidad “plantea preguntas importantes sobre la equidad de trato entre diferentes usuarios”. Mientras que cuando los equipos de moderación de Facebook o Instagram eliminan un mensaje, su creador puede apelar la decisión.

La organización también es muy crítica con las asociaciones de verificación de hechos que Meta ha establecido con varios medios (incluidos, en Francia, AFP, 20 Minutes y France24). El mundo participó en este programa hasta finales de 2022). El contenido identificado como engañoso o que contiene afirmaciones falsas sobre la pandemia por parte de estos medios puede etiquetarse como tal en Facebook o Instagram. El análisis de la junta sugiere que este enfoque es demasiado ineficiente, en particular debido a “La decisión de Meta de excluir del ámbito de los contenidos a verificar las declaraciones de líderes políticos que, como muestra nuestro estudio, se encontraban entre los más activos difusores de información falsa sobre el Covid-19”. Meta había decidido excluir del alcance de este programa las declaraciones de los funcionarios electos, por considerar que se trataba de discursos políticos a los que todos los ciudadanos deberían poder tener acceso.

El mundo



Source link-5