Una nueva investigación muestra cómo los algoritmos de Meta dieron forma a los feeds de las elecciones de 2020 de los usuarios


Hace casi tres años, Meta anunció que se asociaría con más de una docena de investigadores independientes sobre el impacto que tuvieron Facebook e Instagram en las elecciones de 2020. Tanto Meta como los investigadores prometieron que el proyecto, que se basaría en una gran cantidad de datos internos, brindaría una mirada independiente a problemas como la polarización y la desinformación.

Ahora, tenemos el resultado de esa investigación en forma de cuatro artículos revisados ​​por pares publicados en las revistas Ciencia y Naturaleza. Los estudios ofrecen una nueva mirada intrigante sobre cómo los algoritmos de Facebook e Instagram afectaron lo que vieron los usuarios en el período previo a las elecciones presidenciales de 2020.

Los papeles también son un hito notable para Meta. En ocasiones, la compañía ha tenido una relación con investigadores independientes y ha sido acusada de «» en sus esfuerzos por poner más datos a disposición de quienes desean comprender lo que sucede en esta plataforma. En un comunicado, el jefe de políticas de Meta, Nick Clegg, dijo que la investigación sugiere que Facebook puede no ser tan influyente en la formación de las creencias políticas de sus usuarios como muchos creen. “Los estudios experimentales se suman a un creciente cuerpo de investigación que muestra que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización ‘afectiva’ dañina, o tengan efectos significativos en actitudes, creencias o comportamientos políticos clave”, escribió.

Los hallazgos iniciales de los investigadores, sin embargo, parecen pintar un cuadro más complejo.

Un estudio analizó el efecto de las llamadas «cámaras de eco» o cuando los usuarios están expuestos a una gran cantidad de fuentes «de ideas afines». Si bien los investigadores confirman que la mayoría de los usuarios en los EE. UU. ven la mayoría del contenido de «amigos, páginas y grupos de ideas afines», señalan que no todo es explícitamente político o relacionado con noticias. También encontraron que disminuir la cantidad de contenido de «ideas afines» redujo el compromiso, pero no cambió significativamente las creencias o actitudes de los usuarios.

Si bien los autores señalan que los resultados no tienen en cuenta los «efectos acumulativos» que años de uso de las redes sociales pueden haber tenido en sus sujetos, sí sugieren que los efectos de las cámaras de eco a menudo se caracterizan erróneamente.

Otro estudio en Naturaleza examinó el efecto de compararlos con los generados algorítmicamente. Ese problema ganó especial prominencia en 2021, gracias a las revelaciones de la denunciante Frances Haugen, quien pidió un regreso a las transmisiones cronológicas. Como era de esperar, los investigadores concluyeron que los feeds algorítmicos de Facebook e Instagram «influyeron fuertemente en las experiencias de los usuarios».

“La transmisión cronológica redujo drásticamente la cantidad de tiempo que los usuarios pasaban en la plataforma, redujo la cantidad de usuarios que interactuaban con el contenido cuando estaban en la plataforma y alteró la combinación de contenido que se les sirvió”, escriben los autores. “Los usuarios vieron más contenido de amigos y fuentes ideológicamente moderadas con audiencias mixtas; más contenido político; más contenido de fuentes no confiables; y menos contenido clasificado como incivil o que contenga palabras difamatorias de lo que tendrían en el Algorithmic Feed”.

Al mismo tiempo, los investigadores dicen que una transmisión cronológica «no causó cambios detectables en las actitudes políticas, el conocimiento o el comportamiento fuera de línea».

Asimismo, otro estudio, también sobre los efectos del contenido compartido en el período previo a las elecciones de 2020, descubrió que eliminar el contenido compartido «disminuye sustancialmente la cantidad de noticias políticas, incluido el contenido de fuentes no confiables», pero no «afectó significativamente la polarización política o cualquier medida de individual». actitudes políticas de alto nivel.

Finalmente, investiga las noticias políticas que aparecieron en los feeds de los usuarios en el contexto de si eran liberales o conservadores. Concluyeron que Facebook está “sustancialmente segregado ideológicamente”, pero que “la segregación ideológica se manifiesta mucho más en el contenido publicado por páginas y grupos que en el contenido publicado por amigos”. También encontraron que los usuarios conservadores eran mucho más propensos a ver contenido de fuentes «no confiables», así como artículos calificados como falsos por los verificadores de hechos de terceros de la compañía.

Los investigadores dijeron que los resultados fueron una «manifestación de cómo las páginas y los grupos proporcionan una máquina de conservación y difusión muy poderosa que las fuentes con audiencias predominantemente conservadoras utilizan de manera especialmente efectiva».

Si bien algunos de los hallazgos parecen buenos para Meta, que durante mucho tiempo ha argumentado que el contenido político es solo una pequeña minoría de lo que ven la mayoría de los usuarios, una de las conclusiones más notables de la investigación es que no existen soluciones obvias para abordar la polarización que hace en las redes sociales. “Los resultados de estos experimentos no muestran que las plataformas no sean el problema, pero muestran que no son la solución”, dijo David García, de la Universidad de Konstanz, quien formó parte del equipo de investigación. .

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47