Un nuevo estudio encontró que las páginas y los grupos de Facebook dan forma a sus cámaras de eco ideológicas


Una nueva investigación publicada el jueves ofrece una inmersión sin precedentes en el comportamiento político en Facebook e Instagram, dos importantes centros en línea donde las personas expresan e interactúan con sus creencias políticas. Los estudios, publicados por un conjunto interdisciplinario de investigadores que trabajan en conjunto con grupos internos de Meta, abarcan cuatro artículos publicados en Science and Nature que examinan el comportamiento en ambas plataformas en el momento de las elecciones estadounidenses de 2020.

Los documentos, solo la primera ola de muchos que se publicarán en los próximos meses, surgieron de lo que se conoce como el Estudio de elecciones de Facebook e Instagram (FIES) de 2020, una colaboración inusual entre Meta y la comunidad de investigación científica. En el aspecto académico, el proyecto fue encabezado por la profesora de la Universidad de Texas, Talia Jomini Stroud, del Centro de Compromiso con los Medios de la escuela, y el profesor de la Universidad de Nueva York, Joshua A. Tucker, quien se desempeña como codirector de su Centro de Medios Sociales y Política.

Los hallazgos son innumerables y complejos.

En un estudio sobre las cámaras de eco ideológicas de Facebook, los investigadores buscaron información sobre la medida en que los usuarios de la plataforma estaban expuestos solo al contenido con el que estaban alineados políticamente. “Nuestros análisis destacan que Facebook, como entorno social e informativo, está sustancialmente segregado ideológicamente, mucho más de lo que encontraron investigaciones anteriores sobre el consumo de noticias en Internet basadas en el comportamiento de navegación”, escribieron los investigadores.

De los datos surgieron al menos dos hallazgos específicos muy interesantes. Primero, los investigadores encontraron que el contenido publicado en los grupos y páginas de Facebook mostraba mucha más «segregación ideológica» en comparación con el contenido publicado por los amigos de los usuarios. “Las páginas y los grupos contribuyen mucho más a la segregación y polarización de la audiencia que los usuarios”, escribieron los investigadores.

Eso puede ser intuitivo, pero históricamente tanto los Grupos como las Páginas han jugado un papel importante en la distribución de información errónea y en ayudar a los usuarios de ideas afines a unirse en torno a intereses compartidos peligrosos, incluidos QAnon, milicias antigubernamentales (como los Proud Boys, que dependían de Facebook para el reclutamiento). ) y conspiraciones de salud potencialmente mortales. Los expertos en desinformación y extremismo han expresado durante mucho tiempo su preocupación por el papel de los dos productos de Facebook en la polarización política y la siembra de conspiraciones.

“Nuestros resultados descubren la influencia que tienen dos prestaciones clave de Facebook, páginas y grupos, en la configuración del entorno de información en línea”, escribieron los investigadores. “Las páginas y los grupos se benefician de la fácil reutilización del contenido de productores establecidos de noticias políticas y brindan un mecanismo de curación mediante el cual se puede redistribuir contenido ideológicamente consistente de una amplia variedad de fuentes”.

Ese estudio también encontró una gran asimetría entre el contenido político liberal y conservador en Facebook. Los investigadores descubrieron que el sistema de verificación de hechos de terceros de Meta determinó que una parte «mucho mayor» del contenido de noticias conservador de Facebook era falso, un resultado que demuestra cómo los usuarios conservadores de Facebook están expuestos a mucha más información política errónea en línea en comparación con su izquierda. -contrapartes inclinadas.

“… La desinformación compartida por Páginas y Grupos tiene audiencias más homogéneas y completamente concentradas en la derecha”, escribieron los investigadores.

En un experimento diferente realizado con la cooperación de Meta, los participantes en Facebook e Instagram vieron cómo sus feeds algorítmicos eran reemplazados por un feed cronológico inverso, a menudo el grito de guerra de aquellos hartos del desplazamiento interminable y los diseños adictivos de las redes sociales. La experiencia en realidad no movió la aguja sobre cómo se sentían los usuarios con respecto a la política, qué tan comprometidos políticamente estaban fuera de línea o cuánto conocimiento terminaron teniendo sobre política.

En ese experimento, hubo un cambio importante para los usuarios que recibieron el feed cronológico inverso. “Descubrimos que los usuarios del grupo de alimentación cronológica pasaban mucho menos tiempo en Facebook e Instagram”, escribieron los autores, un resultado que subraya cómo Meta estimula el compromiso y fomenta las tendencias de comportamiento adictivo al mezclar contenido en un revoltijo algorítmico.

Estos hallazgos son solo una muestra de los resultados actuales y una fracción de lo que vendrá en futuros documentos. Meta ha estado analizando los resultados de los nuevos estudios como una victoria, una visión que aplana hallazgos complejos en lo que es esencialmente un truco publicitario. Independientemente de la interpretación de Meta de los resultados y el extraño arreglo entre los investigadores y la empresa, estos datos forman una base esencial para futuras investigaciones sobre las redes sociales.





Source link-48