El algoritmo de YouTube envió reclamos de fraude electoral a los partidarios de Trump, según un informe


Durante años, los investigadores han sugerido que los algoritmos que alimentan el contenido de los usuarios no son la causa de las cámaras de eco en línea, sino que es más probable que se deban a que los usuarios buscan activamente contenido que se alinee con sus creencias. Esta semana, los investigadores del Centro de Medios Sociales y Política de la Universidad de Nueva York mostraron los resultados de un experimento de YouTube que se realizó justo cuando se presentaron las denuncias de fraude electoral en el otoño de 2020. Dicen que sus resultados proporcionan una advertencia importante a la investigación anterior realizada por mostrando evidencia de que en 2020, el algoritmo de YouTube fue responsable de recomendar «desproporcionadamente» contenido de fraude electoral a usuarios más «escépticos sobre la legitimidad de las elecciones para empezar».

Un coautor del estudio, el politólogo de la Universidad de Vanderbilt, James Bisbee, le dijo a The Verge que, aunque a los participantes se les recomendó una cantidad baja de videos de negación de elecciones (un máximo de 12 videos de los cientos de participantes en los que hicieron clic), el algoritmo generó tres veces más para las personas. predispuestos a comprar en la conspiración que a las personas que no lo hicieron. «Cuanto más susceptible seas a este tipo de narrativas sobre las elecciones… más contenido recomendarías sobre esa narrativa», dijo Bisbee.

La portavoz de YouTube, Elena Hernández, le dijo a Ars que el informe del equipo de Bisbee «no representa con precisión cómo funcionan nuestros sistemas». Hernández dice: «YouTube no permite ni recomienda videos que presenten afirmaciones falsas de fraude generalizado, errores o fallas en las elecciones presidenciales de EE. UU. de 2020» y los «videos y canales más vistos y recomendados relacionados con las elecciones provienen de fuentes autorizadas, como canales de noticias».

El equipo de Bisbee afirma directamente en su informe que no intentaron descifrar el enigma de cómo funciona el sistema de recomendaciones de YouTube:

«Sin acceso al algoritmo de secreto comercial de YouTube, no podemos afirmar con confianza que el sistema de recomendación infiere el apetito de un usuario por el contenido de fraude electoral utilizando su historial de reproducción anterior, sus datos demográficos o alguna combinación de ambos. A los efectos de nuestra contribución , tratamos el algoritmo como la caja negra que es y, en cambio, simplemente preguntamos si recomendará de manera desproporcionada contenido de fraude electoral a aquellos usuarios que son más escépticos sobre la legitimidad de las elecciones».

Para llevar a cabo su experimento, el equipo de Bisbee reclutó a cientos de usuarios de YouTube y recreó la experiencia de recomendación haciendo que cada participante completara el estudio conectado a sus cuentas de YouTube. Después de que los participantes hicieran clic en varias recomendaciones, los investigadores registraron cualquier contenido recomendado que se marcara como apoyo, refutación o informe neutral de las afirmaciones de fraude electoral de Trump. Una vez que terminaron de ver los videos, los participantes completaron una larga encuesta compartiendo sus creencias sobre las elecciones de 2020.

Bisbee le dijo a Ars que «el propósito de nuestro estudio no era medir, describir o aplicar ingeniería inversa al funcionamiento interno del algoritmo de YouTube, sino describir una diferencia sistemática en el contenido que recomendaba a los usuarios que estaban más o menos preocupados por las elecciones». fraude.» El único propósito del estudio era analizar el contenido que se proporcionaba a los usuarios para probar si los sistemas de recomendación en línea contribuían al «entorno de información polarizado».

«Podemos mostrar este patrón sin aplicar ingeniería inversa al algoritmo de caja negra que utilizan», dijo Bisbee a Ars. «Acabamos de ver lo que se mostraba a la gente real».

Probando el sistema de recomendaciones de YouTube

El equipo de Bisbee informó eso porque el algoritmo de YouTube se basa en los historiales de reproducción y las suscripciones. En la mayoría de los casos, es una experiencia positiva que el contenido recomendado se alinee con los intereses del usuario. Pero debido a las circunstancias extremas que siguieron a las elecciones de 2020, los investigadores plantearon la hipótesis de que el sistema de recomendaciones generaría naturalmente más contenido de fraude electoral para los usuarios que ya se mostraban escépticos sobre la victoria de Joe Biden.

Para probar la hipótesis, los investigadores «controlaron cuidadosamente el comportamiento de los usuarios reales de YouTube mientras estaban en la plataforma». Los participantes iniciaron sesión en sus cuentas y descargaron una extensión del navegador para capturar datos en los videos recomendados. Luego navegaron a través de 20 recomendaciones, siguiendo una ruta específica establecida por los investigadores, como solo hacer clic en el segundo video recomendado desde la parte superior. Cada participante comenzó viendo un video «semilla» asignado al azar (ya sea político o no político) para asegurarse de que el video inicial que vieron no influyera en las recomendaciones posteriores basadas en las preferencias de los usuarios anteriores que el algoritmo reconocería.

Hubo muchas limitaciones en este estudio, que los investigadores describieron en detalle. Quizás lo más importante es que los participantes no eran representativos de los usuarios típicos de YouTube. La mayoría de los participantes eran jóvenes demócratas con educación universitaria que miraban YouTube en dispositivos con Windows. Los investigadores sugieren que el contenido recomendado podría haber sido diferente si más participantes fueran conservadores o republicanos y, por lo tanto, supuestamente más propensos a creer en el fraude electoral.

También hubo un problema en el que YouTube eliminó los videos de fraude electoral de la plataforma en diciembre de 2020, lo que provocó que los investigadores perdieran el acceso a lo que describieron como una cantidad insignificante de videos recomendados a los participantes que no pudieron evaluarse.

El equipo de Bisbee informó que la conclusión clave del informe fue la evidencia preliminar de un patrón de comportamiento del algoritmo de YouTube, pero no una medida real de cómo se difundió la información errónea en YouTube en 2020.



Source link-49