Estudio dice que ‘Pre-Bunking’ vacuna contra la información errónea de YouTube


Imagen para el artículo titulado Estudio masivo que involucra hallazgos de YouTube 'Pre-Bunking'  Inocula a la gente contra la información errónea

Los investigadores involucrados en un gran estudio revisado por pares publicado el miércoles dicen que «pre-bunking» es el mejor método desarrollado hasta ahora para evitar que las personas crean la información errónea que ven en Internet. El estudio fue realizado por investigadores de la universidades de Cambridge y Bristol, quienes trabajaron junto con YouTube y Jigsaw, otra subsidiaria de Google, para realizar un total de siete experimentos diferentes en los que participaron casi 30.000 participantes. El objetivo detrás de estos experimentos era ver si podían persuadir a los usuarios de la web para que se mantuvieran alejados del contenido más nocivo de la web.

Los experimentos utilizaron un concepto relativamente nuevo conocido como «pre-bunking» o, en la jerga de los investigadores, «inoculación de actitud», basado en un campo de investigación psicológica que comparte el nombre, teoría de la inoculación. La teoría postula que, mediante el uso de diversas formas de comunicación, las personas pueden ser persuadidas no ser persuadido por otros argumentos o sistemas de creencias. En resumen, «pre-bunking» está destinado a dar a los usuarios de la web una idea de cómo se ve la manipulación en línea para que puedan identificarla más tarde y luego protegerse de ella en el futuro.

Para probar esta teoría, los investigadores desplegaron videos de 90 segundos en el espacio publicitario de YouTube para informar a los espectadores sobre las tácticas de desinformación que podrían encontrar en la plataforma. Estos anuncios de servicio público no se centraron en tipos particulares de contenido, sino que intentaron enseñar a los espectadores sobre los diferentes tipos de retórica manipuladora que podrían usarse en campañas de desinformación. Específicamente, los videos advertían a los espectadores sobre trucos bien conocidos, como el lenguaje «emocionalmente manipulador», las falsas dicotomías, los ataques ad hominem, el chivo expiatorio y la incoherencia.

Después de mostrar los videos, a los participantes del estudio se les mostró una variedad de publicaciones en las redes sociales, algunas con tácticas de manipulación y otras que eran «neutrales», y se les pidió que calificaran su confiabilidad. Según los investigadores, los videos parecen haber funcionado bien. Afirman que la capacidad de los participantes para identificar la retórica manipuladora aumentó en un promedio del 5 por ciento después de haber visto los videos. Los hallazgos recientemente publicados señalan:

“En siete estudios prerregistrados de gran potencia, incluido un experimento de campo en YouTube, con un total de casi 30 000 participantes, descubrimos que ver videos cortos de inoculación mejora la capacidad de las personas para identificar las técnicas de manipulación comúnmente utilizadas en la desinformación en línea, tanto en un entorno de laboratorio y en un entorno del mundo real donde la exposición a la desinformación es común”.

Jon Roozenbeek, uno de los principales investigadores involucrados en el proyecto, dijo que la inoculación funcionó para personas de todos los ámbitos de la vida. “El efecto de inoculación fue consistente entre liberales y conservadores. Funcionó para personas con diferentes niveles de educación y diferentes tipos de personalidad. Esta es la base de una inoculación general contra la desinformación”, dijo.

Una solución con escala

Los partidarios de pre-bunking dicen que es el método escalable más efectivo disponible actualmente para combatir la desinformación. El fact-checking, que ha sido uno de los más ampliamente utilizado herramientas en la lucha contra la mierda en línea, es difícil de escalar debido a la imposible cantidad de esfuerzo necesaria para verificar cada cosa incorrecta que se publica en línea. Alternativamente, se supone que el pre-bunking prepara a los usuarios de la web contra todo géneros de tácticas manipuladoras o narrativas antes de que las encuentren en la naturaleza. Esto significa que, independientemente de los detalles de una teoría de la conspiración viral en particular, los espectadores estarán mentalmente preparados para defenderse de ese tipo de información cuando aparezca.

Los investigadores dijeron que su método funcionó tan bien que están en el proceso de lanzar nuevas campañas de «pre-bunking» que se utilizarán para orientar tipos específicos de contenido en regiones geográficas específicas. Jigsaw de Google ahora está en el proceso de «lanzar una campaña de video de prebunking para contrarrestar las narrativas contra los refugiados en Europa Central y del Este en asociación con Google, YouTube y expertos locales». El esfuerzo se utilizará para disuadir a los usuarios de la web de interactuar con contenido que satanice a los refugiados o los haga parecer una influencia nociva en sus países de acogida.

“Estos hallazgos son emocionantes porque demuestran que podemos escalar el pre-bunking a lo largo y ancho, utilizando anuncios como vehículo, y que los videos de pre-bunking son efectivos en un “entorno ecológicamente válido” en las redes sociales y fuera de una prueba de laboratorio controlada”. dijo Beth Goldberg, directora de investigación y desarrollo de Jigsaw y coautora del artículo, en una declaración a Gizmodo.

Preguntas persistentes

Pero si todo esto suena muy impresionante, hay algunas preguntas que no puedes dejar de reflexionar. Si solo lo piensa por un minuto, es bastante claro que muchas cosas podrían salir mal con todo el concepto de «pre-bunking».

Una pregunta que naturalmente viene a la mente es: ¿quién determina qué cuenta como una narrativa falsa o “manipuladora”? ¿Es el gobierno? ¿Una corporación como Google? ¿Un panel selecto de expertos académicos? En resumen: ¿quién llega a ser el árbitro de esta importantísima función epistemológica? ¿Y cómo mantiene la confianza en ese árbitro cuando gran parte de la crisis de desinformación está impulsada por la desconfianza pública en las narrativas oficiales?

Cuando observa ejemplos recientes de «pre-bunking», puede ver que no siempre ha ido tan bien. Uno de los casos más destacados de «pre-bunking» ocurrió durante el período previo a la invasión rusa de Ucrania, cuando el Departamento de Estado de manera controvertida Anunciado que Rusia planeaba distribuir un video de propaganda producido profesionalmente que involucraba pirotecnia y «actores de crisis». El video se usaría para culpar a Ucrania por los ataques terroristas contra civiles y ayudaría a justificar la invasión, dijo Estados Unidos. Desafortunadamente, no todos compraron lo que vendía el Departamento de Estado: un reportero de Associated Press expresó su incredulidad ante las afirmaciones y descaradamente gritó al gobierno por difundir tonterías al estilo “Alex Jones”.

Aún más problemático, el video nunca se materializó. ¿Fue porque los esfuerzos de “pre-bunking” de Estados Unidos impidieron que los rusos publicaran su video? ¿O fue porque el video nunca existió en primer lugar? Dadas las circunstancias, es imposible decirlo y, por lo tanto, también es imposible evaluar si EE. UU. estaba siendo un «prebúnker» de buena fe o si en realidad estaba difundiendo su propia desinformación.

En las manos equivocadas, el pre-bunking (o, aún más espeluznante, la «inoculación psicológica») podría ser solo otra forma de guiar y dar forma a las narrativas en línea: implementar un tipo completamente diferente de manipulación que es aún más nociva porque es distribuida por instituciones autorizadas en lugar de algunos matones paranoicos en Internet. Roozenbeek tiene cuidado de reconocer que el «pre-bunking» no es de ninguna manera la única estrategia necesaria para combatir la desinformación y que debe llevarse a cabo con cuidado y sensibilidad hacia la audiencia que la recibe.

“El punto que hemos estado tratando de hacer explícitamente es: no le estamos diciendo a la gente qué es verdad y qué no”, dijo Roozenbeek.

También son los algoritmos que gobiernan estas plataformas los que deben analizarse, dijo. «Ellos [YouTube] tenemos un gran problema con las personas que terminan en estas espirales de contenido de calidad cada vez más baja, eso sin duda es un problema”, dijo Roozenbeek, haciendo referencia a la forma en que YouTube tiende a enviar a las personas hacia abajo. madrigueras de conejo de contenido tóxico. “Es encomiable que, al menos en la superficie, estén tratando de hacer algo al respecto”, dijo. «Lo que no creo que sería bueno… es que simplemente dijeran: ‘Bueno, no se preocupen por nuestros algoritmos, simplemente prepararemos todo con anticipación'». El almacenamiento previo no es la única solución, él enfatiza—es solo parte de la solución.



Source link-45