¿Facebook alimentó la polarización política durante las elecciones de 2020? Es complicado.


Imágenes Getty | aurich lawson

En los últimos años, ha habido una creciente preocupación por la influencia de las redes sociales en el fomento de la polarización política en los EE. UU., con implicaciones críticas para la democracia. Pero no está claro si nuestras «cámaras de eco» en línea son el factor impulsor detrás de esa polarización o si las redes sociales simplemente reflejan (y posiblemente amplifican) las divisiones que ya existen. Se han propuesto varias estrategias de intervención para reducir la polarización y la difusión de información errónea en las redes sociales, pero tampoco está claro qué tan efectivas serían para abordar el problema.

El Estudio de elecciones de Facebook e Instagram de EE. UU. 2020 es una colaboración conjunta entre un grupo de académicos externos independientes de varias instituciones y Meta, la empresa matriz de Facebook e Instagram. El proyecto está diseñado para explorar estas y otras preguntas relevantes sobre el papel de las redes sociales en la democracia en el contexto de las elecciones estadounidenses de 2020. También es el primero en términos del grado de transparencia e independencia que Meta ha otorgado a los investigadores académicos. Ahora tenemos los primeros resultados de esta inusual colaboración, detallados en cuatro documentos separados: la primera ronda de más de una docena de estudios derivados del proyecto.

Tres de los artículos se publicaron en un número especial de la revista Science. El primer artículo investigó cómo se segregaba ideológicamente la exposición al contenido de noticias políticas en Facebook. El segundo artículo profundizó en los efectos de una alimentación cronológica inversa en oposición a una algorítmica. El tercer artículo examinó los efectos de la exposición al contenido compartido en Facebook. Y el cuarto artículo, publicado en Nature, exploró hasta qué punto las «cámaras de eco» de las redes sociales contribuyen a una mayor polarización y hostilidad.

«Descubrimos que los algoritmos son extremadamente influyentes en las experiencias de las personas en la plataforma, y ​​existe una segregación ideológica significativa en la exposición de noticias políticas», dijo Natalie Jomini Stroud, de la Universidad de Texas en Austin, codirectora de investigación académica del proyecto, junto con New Joshua Tucker de la Universidad de York, dijo durante una rueda de prensa. «También encontramos que las propuestas populares para cambiar los algoritmos de las redes sociales no influyeron en las actitudes políticas».

Segregación ideológica

Comencemos con la pregunta de si Facebook permite o no una mayor segregación ideológica en el consumo de noticias políticas por parte de los usuarios. Sandra Gonzalez-Bailon de la Universidad de Pensilvania y sus coautores observaron el comportamiento de 208 millones de usuarios de Facebook entre septiembre de 2020 y febrero de 2021. Por razones de privacidad, según Gonzalez-Bailon, no analizaron los datos a nivel individual, centrándose solo en medidas agregadas del comportamiento de la audiencia y la composición de la audiencia. Entonces, las URL que analizaron habían sido publicadas por los usuarios más de 100 veces.

Los resultados: los conservadores y los liberales de hecho ven y se involucran con diferentes conjuntos de noticias políticas: una fuerte separación ideológica. Esa segregación es aún más pronunciada cuando las noticias políticas se publican por páginas o grupos en lugar de individuos. “En otras palabras, las páginas y los grupos contribuyen mucho más a la segregación que los usuarios”, dijo González-Bailón. Además, los usuarios políticamente conservadores están mucho más segregados en Facebook que los usuarios liberales; hubo muchas más URL de noticias políticas vistas exclusivamente por conservadores en comparación con aquellas vistas exclusivamente por liberales.

Finalmente, la gran mayoría de las noticias políticas que el programa de verificación de datos de terceros de Meta calificó como falsas fueron vistas por los conservadores, en comparación con los liberales. Dicho esto, esas calificaciones falsas ascendieron a solo el 0,2 por ciento, en promedio, del volumen total de contenido en Facebook. Y las noticias políticas en general representan solo el 3 por ciento de todas las publicaciones compartidas en Facebook, por lo que no es ni remotamente el tipo de contenido más popular. «Esta segregación es el resultado de una interacción compleja entre las formas algorítmicas de curación y las formas sociales de curación, y estos bucles de retroalimentación son muy difíciles de desenredar con los datos de observación», dijo Gonzalez-Bailon sobre los hallazgos del estudio.



Source link-49