Investigadores estudian los efectos de Facebook en la polarización política


Una serie de cuatro artículos dedicados a la circulación de opiniones políticas en Facebook, fruto de una colaboración entre la red social y varias importantes universidades estadounidenses, se publicó el martes 25 de julio en revistas científicas. Ciencia Y Naturaleza. Estas publicaciones hacen un balance de varios experimentos llevados a cabo durante las elecciones presidenciales estadounidenses de 2020 por científicos, que modificaron el contenido de los feeds de Facebook de miles de voluntarios para medir las consecuencias sobre su polarización política.

Los investigadores midieron los comportamientos políticos de los participantes al entrar y salir de los experimentos: la mayoría no midió cambios significativos. Según Nick Clegg, jefe de comunicaciones del grupo Meta, esta investigación socava la tesis de que los algoritmos de Meta » [fournissent] personas con contenido que las divide”.

Una afirmación, sin embargo, rebatida por los autores de los estudios, cuestionada por el Wall Street Journal y la revista cableado. Estos científicos destacan la brevísima duración de su trabajo: tres meses. A sus ojos, la ausencia de cambios en el comportamiento político durante un período tan corto no prueba que los algoritmos de la empresa no tengan impacto a largo plazo.

Señalan que estos experimentos tuvieron lugar al final de una campaña ampliamente cubierta por las cadenas de televisión estadounidenses, otra fuente importante de influencia para los votantes estadounidenses. Y que durante la campaña, los moderadores de Meta mostraron especial celo en su lucha contra la desinformación.

Sobre todo, si estos estudios no establecen que el algoritmo de Facebook puede influir en las opiniones políticas de sus usuarios, sí muestran que modifica mucho la naturaleza del contenido que les llega.

Cambios no tan triviales

Al bloquear el contenido compartido por los amigos de los participantes, el primer estudio pudo determinar que la cantidad de artículos políticos se redujo en un 60 % en las noticias de los voluntarios y la cantidad de mensajes de fuentes no confiables en un 30 %. El mismo experimento muestra que los participantes ven que la proporción de contenido que expresa opiniones que comparten disminuye en un 5 %, mientras que el contenido de fuentes moderadas aumenta en un 16 %. El contenido agresivo aumentó un 6%.

El segundo estudio, publicado en Science, obligó a los participantes a mostrar el contenido en orden cronológico; estos normalmente se distribuyen de acuerdo con un algoritmo con lógica compleja. En los feeds de Facebook de los voluntarios, la proporción de contenido de fuentes afines se redujo en un 10 %. Los contenidos de fuentes moderadas aumentaron un 36% –lo que no impide, al mismo tiempo, que también se dispare la cantidad de contenidos de fuentes poco fiables: +69%.

Finalmente, si la tasa de artículos políticos aumentó un 40%, el interés de los internautas por la plataforma disminuyó drásticamente: su asistencia en Facebook cayó un 42% tras la transición al hilo cronológico.

El tercer estudio intentó reducir el número de publicaciones que reportaban puntos de vista políticos cercanos a los suyos en un tercio sobre los voluntarios, sin observar ningún cambio en su comportamiento político al final. Sin embargo, los investigadores notaron que el contenido político constituía solo una pequeña parte de lo que se muestra en el feed de Facebook de los usuarios de Internet estadounidenses. Y que una gran mayoría de estos provienen de fuentes con opiniones cercanas a las suyas.

El mundo

Oferta especial para estudiantes y profesores.

Accede a todo nuestro contenido ilimitado desde 8,99 euros al mes en lugar de 10,99 euros

Suscribir

Finalmente, el cuarto estudio estudió las diferencias entre todas las publicaciones que los participantes pudieron haber visto y las que realmente consultaron. Muestra que la información errónea es mucho más común en el contenido de tendencia conservadora que en su contraparte liberal. También revela que la polarización política es mucho más fuerte en el contenido de los grupos que en el contenido publicado por amigos.

Conclusiones que se verán enriquecidas en los próximos meses por una decena de estudios más de la misma iniciativa.



Source link-5