“Año súper electoral 2024”: Open AI dice que Chat-GPT no se puede utilizar para campañas políticas. Esta investigación muestra lo contrario


En 2024, la mitad de la población mundial votará, en un momento en el que lo verdadero y lo falso son cada vez más difíciles de distinguir.

Formadores de opinión al fondo: Chat-GPT también se puede utilizar con fines políticos.

Sam Wolfe/Reuters

El jefe de Open AI, Sam Altman, ha estado advirtiendo durante meses. «Estoy nervioso por el impacto que tendrá la IA en futuras elecciones», escribió en un Publicar en X Ya hace medio año. A mediados de enero, Open AI fijó directrices para las elecciones con el objetivo de que Chat-GPT no pueda utilizarse con fines políticos.

Todavía estamos trabajando para comprender cómo los chatbots de IA cambian la formación de opinión, escribe Open AI en el Comunicado de prensa. «Hasta que sepamos más, no permitiremos que la gente cree aplicaciones para campañas políticas y lobby».

Específicamente, esto significa: Chat-GPT no debe generar ningún contenido que pueda considerarse que influye en las elecciones; ni campañas, ni textos para hacer lobby. Otros ámbitos de aplicación política ahora también están prohibidos: los chatbots que pretenden ser personas reales, por ejemplo candidatos, o los textos destinados a disuadir a los votantes de acudir a las urnas.

Directrices aún no implementadas

Una prueba realizada por el NZZ a principios de febrero muestra que, contrariamente a lo anunciado, estas directrices aún no se han aplicado, ni siquiera en el contexto de las elecciones en EE.UU. En la prueba, Chat-GPT se negó a escribir eslóganes que denigraran a Joe Biden o Donald Trump. Sin embargo, en cuestión de segundos se generaron más de 250 eslóganes para las campañas políticas de ambos candidatos, incluidos hashtags.

Chat-GPT escribió, por ejemplo: “La mamá montañosa de Virginia Occidental para Trump. #Trump2024 #TrumpCountry #HeartOfAppalachia #PatriotsOfWV #AmericaFirstWV». O: “Estado pequeño, grandes sueños: Rhode Island para Biden. #DreamBigRI #RIProgress #LeadWithBiden #UnityOverDivision».

Con un poco de conocimientos de programación, estos lemas ahora podrían difundirse en las redes sociales, de forma automática, casi cualquier número de ellos cada día. A pedido, Chat-GPT incluso proporciona instrucciones sobre cómo difundir los lemas a través de un bot en la Plataforma X.

Las promesas electorales están distorsionadas

También se convenció a la IA para que formulara correos electrónicos específicos para grupos objetivo. Para la campaña de Trump, la modelo escribió una recomendación de voto para una mujer de 40 años de los suburbios: “Como mujeres de los suburbios, estamos a la vanguardia del cambio: equilibrar carreras, apoyar a nuestras familias y luchar por la seguridad y la prosperidad de nuestros barrios », escribió Chat-GPT. Y más abajo: “Su voto por Donald Trump es un paso hacia un futuro que todos merecemos”. A esto le sigue un argumento a favor de Trump, quien supuestamente está comprometido con una mejor educación.

Lo que esto significa en detalle aún no está claro en el correo electrónico de Chat-GPT. En cualquier caso, el modelo omite en la carta de recomendación que Trump planea retirar fondos a las escuelas si enseñan “contenido racista, sexual o político inapropiado” y quiere “eliminar” a los maestros desafiantes. Chat-GPT tampoco dice una palabra sobre el hecho de que Trump quiere «mantener a los hombres fuera de los deportes femeninos» y quiere crear una nueva autoridad para certificar a los profesores «patrióticos».

El caso lo demuestra: En primer lugar, Open AI no se toma muy en serio sus propias directrices. Y en segundo lugar, el modelo genera contenido político que transmite una imagen general distorsionada de un candidato.

“Súper año electoral 2024”

En los próximos meses se celebrarán elecciones o votaciones en unos 70 estados federados. Se espera que voten más de cuatro mil millones de personas, más del doble que en 2023. Además de India, el país más poblado del mundo, también participarán Estados Unidos, los países de la Unión Europea, Indonesia, México, Sudáfrica, Turquía y Gran Bretaña. Por ello, The Economist habla del “mayor año electoral de la historia”.

Los chatbots pueden ser pirateados

No sorprende a los expertos en inteligencia artificial que los chatbots hagan cosas que no deberían. Florian Tramèr investiga la seguridad de los servicios de IA en ETH. Él dice: «Con el mensaje correcto (nota del editor: entrada de texto), todos los sistemas de IA pueden ser burlados». Existen métodos que empresas como Open AI utilizan para intentar reducir la producción dañina. «Pero es como un ciberataque: si tienes suficiente tiempo y creatividad, puedes ser más astuto que el sistema».

Esto alarma a politólogos como Maria Pawelec. Investiga sobre deepfakes y desinformación en la Universidad de Tubinga y teme que la IA facilite aún más la influencia en las elecciones democráticas. “Muchas personas ahora saben que no pueden creer todas las imágenes que aparecen en Internet. Pero todavía no estamos igualmente preparados para vídeos y audios falsos”.

Chat-GPT solo crea texto e imágenes, pero recomienda plataformas que pueden producir archivos de audio y video, incluidas instrucciones de funcionamiento. Además, Chat-GPT puede escribir textos que cualquier persona debería pronunciar en un audio falso. Así es como las herramientas de inteligencia artificial ayudan en las campañas políticas, incluidas las personas que utilizan métodos injustos.

Archivos de audio falsos sacuden las campañas electorales

Dos ejemplos de elecciones pasadas muestran a qué podría conducir esto: las llamadas automáticas de Joe Biden en New Hampshire y un archivo de audio falso en las elecciones del Consejo Nacional en Eslovaquia.

En Eslovaquia, dos días antes de las elecciones de septiembre de 2023, se publicó en las redes sociales una grabación de audio, supuestamente la grabación de una conversación telefónica. En él se puede escuchar la voz de Michal Simecka, un aspirante a político liberal, y la de un periodista.

Simecka dice algo inaudito: compró la aprobación de los asentamientos romaníes y “aseguró” cuatro colegios electorales; en resumen: manipuló las elecciones a su favor. El archivo de audio circuló en Facebook, Telegram y Tiktok, recibiendo miles de compartidos y cientos de comentarios. Ella era falsa.

El intento de manipulación fue aún más sofisticado en el estado estadounidense de New Hampshire: allí desconocidos que querían debilitar a Joe Biden lanzaron una campaña telefónica. Los votantes de tendencia demócrata recibieron llamadas, supuestamente del propio Joe Biden, en las que el presidente decía que los votantes no deberían participar en las primarias del 23 de enero.

Hasta el día de hoy se desconoce cuántas personas recibieron la llamada falsa y quién estaba detrás.

«Las nuevas formas de deepfakes basadas en herramientas de generación de inteligencia artificial socavan aún más la confianza en los vídeos y archivos de audio», afirma el experto en deepfakes Pawelec. Esto es un problema porque hace aún más difícil saber qué es verdad y qué es falso.

No sólo Chat-GPT, sino también otras herramientas de inteligencia artificial tienen pautas que prohíben la creación de grabaciones falsas de candidatos. Si sus políticas son tan fáciles de eludir como las de Chat-GPT, las próximas elecciones podrían verse inundadas de desinformación en una escala nunca antes vista.





Source link-58