Mozilla insta a WhatsApp a combatir la desinformación antes de las elecciones mundiales


En 2024, aproximadamente la mitad de la población mundial, en 64 países, incluidas grandes democracias como Estados Unidos e India, acudirán a las urnas. Empresas de redes sociales como, y, han prometido proteger la integridad de esas elecciones, al menos en lo que respecta al discurso y las afirmaciones fácticas que se hacen en sus plataformas. Sin embargo, en la conversación falta la aplicación de mensajería cerrada WhatsApp, que ahora rivaliza con las plataformas públicas de redes sociales tanto en alcance como en alcance. Esa ausencia tiene preocupados a los investigadores de la organización sin fines de lucro Mozilla.

«Casi el 90% de las intervenciones de seguridad prometidas por Meta antes de estas elecciones se centran en Facebook e Instagram», dijo a Engadget Odanga Madung, investigador principal de Mozilla centrado en las elecciones y la integridad de la plataforma. “¿Por qué Meta no se ha comprometido públicamente con una hoja de ruta pública sobre exactamente cómo va a proteger las elecciones dentro de [WhatsApp]?”

En los últimos diez años, WhatsApp, que Meta (entonces Facebook) compró por 19.000 millones de dólares en 2014, se ha convertido en el medio de comunicación para la mayor parte del mundo fuera de Estados Unidos. En 2020, WhatsApp anunció que tenía más de dos mil millones de usuarios en todo el mundo, una escala que eclipsa a cualquier otra aplicación social o de mensajería, excepto el propio Facebook.

A pesar de esa escala, el enfoque de Meta se ha centrado principalmente únicamente en Facebook cuando se trata de medidas de seguridad relacionadas con las elecciones. Mozilla descubrió que, si bien Facebook había realizado 95 anuncios de políticas relacionadas con las elecciones desde 2016, el año en que la red social estuvo bajo escrutinio por ayudar y fomentar sentimientos políticos extremos. WhatsApp solo hizo 14. En comparación, Google y YouTube hicieron 35 y 27 anuncios cada uno, mientras que X y TikTok tuvieron 34 y 21 anuncios respectivamente. «Por lo que podemos deducir de sus anuncios públicos, los esfuerzos electorales de Meta parecen priorizar abrumadoramente a Facebook», escribió Madung en el informe.

Mozilla está en Meta para realizar cambios importantes en el funcionamiento de WhatsApp durante los días de votación y en los meses previos y posteriores a las elecciones de un país. Incluyen agregar etiquetas de desinformación al contenido viral (“Muy reenviado: verifique” en lugar del actual “reenviado muchas veces), restringir las funciones de transmisión y Comunidades que permiten a las personas enviar mensajes a cientos de personas al mismo tiempo y empujar a las personas a “pausar el contenido”. y reflexionar” antes de reenviar algo. Más de 16.000 personas firmaron el compromiso de Mozilla pidiendo a WhatsApp que frene la difusión de desinformación política, dijo un portavoz de la compañía a Engadget.

WhatsApp primera fricción con su servicio después de que decenas de personas murieran en India, el mercado más grande de la compañía, en una situación provocada por información errónea que se volvió viral en la plataforma. Esto incluía limitar la cantidad de personas y grupos a los que los usuarios podían reenviar un contenido y distinguir los mensajes reenviados con etiquetas «reenviados». Agregar una etiqueta «reenviado» fue una medida para frenar la información errónea: la idea era que las personas pudieran tratar el contenido reenviado con mayor escepticismo.

«Alguien en Kenia, Nigeria o India que utilice WhatsApp por primera vez no pensará en el significado de la etiqueta ‘reenviado’ en el contexto de la desinformación», dijo Madung. “De hecho, podría tener el efecto contrario: que algo haya sido muy difundido, por lo que debe ser creíble. Para muchas comunidades, la prueba social es un factor importante para establecer la credibilidad de algo”.

La idea de pedirle a la gente que hiciera una pausa y reflexionar surgió de una función de Twitter donde la aplicación pedía a las personas que leyeran un artículo antes de retuitearlo si no lo habían abierto primero. Twitter que el aviso provocó un aumento del 40% en el número de personas que abrieron artículos antes de retuitearlos.

Y pedirle a WhatsApp que deshabilite temporalmente sus funciones de transmisión y Comunidades surgió de la preocupación sobre su potencial para enviar mensajes, reenviados o no, a miles de personas a la vez. «Están tratando de convertir esto en la próxima gran plataforma de redes sociales», dijo Madung. «Pero sin la consideración del despliegue de características de seguridad».

«WhatsApp es una de las únicas empresas de tecnología que restringe intencionalmente el intercambio introduciendo límites de reenvío y etiquetando mensajes que se han reenviado muchas veces», dijo un portavoz de WhatsApp a Engadget. «Hemos creado nuevas herramientas para permitir a los usuarios buscar información precisa y al mismo tiempo protegerlos de contactos no deseados, que detallamos».

Las demandas de Mozilla surgieron de plataformas y elecciones que la empresa realizó en Brasil, India y Liberia. Los primeros son dos de los mercados más grandes de WhatsApp, mientras que la mayor parte de la población de Liberia vive en zonas rurales con baja penetración de Internet, lo que hace casi imposible la verificación tradicional de datos en línea. En los tres países, Mozilla encontró partidos políticos que usaban en gran medida la función de transmisión de WhatsApp para “microdirigir” a los votantes con propaganda y, en algunos casos, discursos de odio.

La naturaleza cifrada de WhatsApp también hace imposible que los investigadores monitoreen lo que circula dentro del ecosistema de la plataforma, una limitación que no impide que algunos de ellos lo intenten. En 2022, dos profesores de Rutgers, Kiran Garimella y Simon Chandrachud, visitaron las oficinas de partidos políticos en India y lograron convencer a los funcionarios para que los agregaran a 500 grupos de WhatsApp que dirigían. Los datos que recopilaron formaron la base de un artículo que escribieron titulado «¿Qué circula por WhatsApp partidista en la India?» Aunque los hallazgos fueron sorprendentes (Garimella y Chandrachud descubrieron que la desinformación y el discurso de odio no constituían, de hecho, la mayoría del contenido de estos grupos), los autores aclararon que el tamaño de su muestra era pequeño y es posible que hayan sido excluidos deliberadamente de grupos donde el discurso de odio y la desinformación política circulaban libremente.

“El cifrado es una pista falsa para evitar la responsabilidad en la plataforma”, dijo Madung. “En un contexto electoral, los problemas no necesariamente son puramente de contenido. Se trata del hecho de que un pequeño grupo de personas puede terminar influyendo significativamente en grupos de personas con facilidad. Estas aplicaciones han eliminado la fricción de la transmisión de información a través de la sociedad”.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.





Source link-47