Lo que los nuevos estudios de Meta revelan y no revelan sobre las redes sociales y la polarización


la semana pasada, el finalmente se publicaron los primeros artículos de una colaboración entre el Facebook de Meta y un equipo de investigadores externos que estudian las elecciones de 2020. Dos de estos estudios preguntaron: ¿Estamos atrapados en burbujas de filtro y nos están destrozando? Los resultados sugieren que las burbujas de filtro son al menos algo reales, pero contrarrestarlas algorítmicamente no parece acercarnos más.

Algunos interpretan estos resultados como prueba de que Facebook nos divide. Otros afirman que estos experimentos son una reivindicación de las redes sociales. No es ninguno.

El primer estudio trató de averiguar si realmente estamos en cámaras de eco informativas y, de ser así, por qué. Como era de esperar, la segregación en nuestras dietas de información comienza con a quién seguimos. Esto refleja la vida fuera de línea, donde las redes sociales en persona de la mayoría de las personas están altamente segregadas.

Pero lo que realmente vemos en nuestro Feed es más homogéneo políticamente que lo que publican aquellos a quienes seguimos, lo que sugiere que el algoritmo Feed realmente amplifica las inclinaciones ideológicas de nuestras redes sociales.

Hay diferencias partidistas aún mayores en lo que nos relacionamos, y Facebook, como casi todas las plataformas, intenta dar a las personas más de lo que hacen clic, les gusta, comentan o comparten. En este caso, parece que el algoritmo está cumpliendo con el comportamiento humano a mitad de camino. La diferencia en nuestras dietas de información se debe en parte a lo que hemos elegido y en parte al resultado de usar computadoras para adivinar, a menudo correctamente, en qué botones haremos clic.

Esto plantea la cuestión de cómo las noticias de personas ideológicamente similares debería ser. Puede leer los valores calculados del «índice de aislamiento» en el documento, pero no está claro a qué números deberíamos apuntar. Además, este estudio se ocupa estrictamente de “noticias y contenido cívico”. Esto puede ser importante desde el punto de vista democrático, pero representa solo un pequeño porcentaje de las impresiones en Facebook. Es posible que las interacciones positivas con personas que son políticamente diferentes nos cambien más, incluso si solo se trata de leer sus publicaciones sobre temas no relacionados.

El segundo estudio analizó directamente si aumentar la diversidad política de personas y editores en su feed tiene un efecto sobre la polarización. Para unos 20.000 participantes que dieron su consentimiento, los investigadores redujeron la cantidad de contenido de fuentes afines en aproximadamente un tercio. Esto aumentó el consumo de fuentes neutrales y transversales, porque la cantidad de tiempo que se pasa en Facebook no cambió.

De las ocho variables de polarización medidas, incluida la polarización afectiva, las opiniones ideológicas extremas y el respeto por las normas electorales, ninguna cambió de manera estadísticamente significativa. Esta es una evidencia bastante buena contra la versión más directa de la tesis de que «las burbujas de filtro algorítmicas causan polarización».

Pero este no es el final de la historia, porque las burbujas de filtro no son la única forma de pensar sobre la relación entre los medios, los algoritmos y la democracia. Una revisión de cientos de estudios ha encontrado una correlación positiva entre el uso general de «medios digitales» y la polarización, en todo el mundo, así como una correlación positiva con el conocimiento y la participación política. El uso de las redes sociales tiene muchos efectos, tanto buenos como malos, y las burbujas de filtro no son la única forma de pensar sobre la relación entre los medios, los algoritmos y la democracia. Por ejemplo, hay evidencia de que los algoritmos basados ​​en el compromiso amplifican el contenido divisivo, y las herramientas para llegar a audiencias específicas también pueden usarse para propaganda o acoso.



Source link-46