Vídeos falsos, elecciones manipuladas: por primera vez, la élite del FEM realmente teme el lado oscuro de la inteligencia artificial


Pesimismo por todas partes: el informe anual antes del Foro Económico Mundial nunca ha sido tan negativo como en 2024. Esto tiene que ver principalmente con India, EE.UU. y ChatGPT.

En 2024 también se celebrarán elecciones en EE.UU. Aquí vemos el Capitolio en Washington. Existe una gran preocupación por la desinformación provocada por la inteligencia artificial.

Evelyn Hockstein/Reuters

Guerras, calor extremo y tormentas, polarización política: cualquiera que hojee las noticias de 2023 puede volverse pesimista fácilmente. Al parecer, esto también se aplica a los 1.500 gestores y expertos en riesgos que el FEM reúne cada año para una gran encuesta.

Son más pesimistas que nunca y, sobre todo, mucho más pesimistas que en 2023. El 30 por ciento espera al menos un “mayor riesgo de catástrofes globales” en los próximos dos años, y el 63 por ciento incluso lo hace cuando se les pregunta sobre las perspectivas para el futuro. la próxima década lo será.

Cuanto más dura, peor se pone

Encuesta a unos 1.500 directivos de la política, la empresa, la universidad y la sociedad civil, cifras en porcentaje

Esto parece paradójico: la economía se mantuvo en 2023 mejor de lo esperado. Las posibles consecuencias del cambio climático, el riesgo a largo plazo más citado, se conocen desde hace mucho tiempo. La guerra en Ucrania tampoco es nueva; La guerra de Gaza, a su vez, no comenzó hasta después de la encuesta del FEM en septiembre de 2023.

Las “noticias falsas” simplificadas

Entonces, ¿qué ha cambiado? Dos explicaciones son centrales.

Primero: apareció ChatGPT.

El año pasado, el mundo se enteró de lo poderosa que se ha vuelto la llamada inteligencia artificial generativa. Con ChatGPT, cualquiera puede generar correos electrónicos de respuesta, poemas o códigos de programación con solo presionar un botón. La calidad mejora con cada nueva generación de modelos.

Los manipuladores también pueden utilizar estos modelos. Ahora se pueden crear y distribuir vídeos y grabaciones de audio falsos a través de las redes sociales sin mucho esfuerzo. Los vídeos difícilmente pueden reconocerse como falsos a simple vista. Esto fue evidente al comienzo de la guerra entre Israel y Hamás, cuando la Plataforma X se inundó de vídeos falsos.

En cualquier caso, el tema preocupa mucho a los expertos en riesgos: el FEM pregunta cómo evalúan determinados riesgos de una lista. La desinformación impulsada por la tecnología está en esta lista por primera vez e inmediatamente llegó al número uno.

Es algo bueno, que el jefe de OpenAI, Sam Altman, uno de los padres fundadores de ChatGPT, estará en el WEF en Davos. Los jefes de Estado reunidos estarán interesados ​​en saber cómo evalúa el riesgo de que sus votantes puedan ser manipulados en línea por la IA.

En segundo lugar, el desarrollo tecnológico sólo revela su peligro potencial en combinación con el riesgo número tres en la lista de los expertos: la polarización social. Debido a que Internet se está descomponiendo en cámaras de eco digitales, las sociedades carecen cada vez más de una base común de hechos para discutir y resolver los desafíos políticos. En Estados Unidos y la India el problema será especialmente grave en 2024 debido a las elecciones: Ya está surgiendo una feroz campaña electoral en las dos grandes potencias.. El informe del WEF también nombra a México, Indonesia y Gran Bretaña.

En cualquier caso, los expertos en riesgos temen que la desinformación y las falsificaciones generadas con ayuda de la inteligencia artificial puedan influir en estas campañas electorales y exacerbar las divisiones sociales. Esto puede llegar tan lejos que el resultado de una elección sea cuestionado y discutido en amplios círculos. En última instancia, existe el riesgo de una versión agravada de lo que ya ocurrió en Estados Unidos con el “asalto al Capitolio” tras las elecciones de 2020.

Incluso los vídeos falsos necesitan audiencia

La directora general del FEM, Saadia Zahidi, habló con los medios sobre una potente combinación de problemas que se están sumando al rápido desarrollo de la IA generativa. No es necesario etiquetar el contenido resultante y muchos usuarios de medios no están capacitados para reconocer las falsificaciones. Además, existen preocupaciones económicas y de otro tipo entre la población.

Cabe mencionar la pandemia del coronavirus, que en muchos países ha aumentado la desconfianza hacia el Estado y las divisiones sociales.

Pero las falsificaciones no ocurren por casualidad; están encargados. Rusia, por ejemplo, probablemente ha intentado influir de esta manera en las elecciones occidentales varias veces en los últimos años.. Los vídeos falsos son un arma útil en el arsenal de Putin.

Carolina Klint, coautora del estudio de la consultora de seguros y riesgos Marsh McLennan, no señaló con el dedo a países concretos, sino que habló de actores nacionales e internacionales que pueden tener interés en dicha manipulación electoral. Sin embargo, los gobiernos no sólo pueden ser víctimas, sino también perpetradores, y pueden censurar voces y contenidos desagradables con el pretexto de impedir las “noticias falsas”.

En primer lugar, sale mejor y en segundo lugar de lo que crees.

Pero el FEM no sería el FEM si no se despertara un poco de esperanza para el futuro; El pesimismo puro probablemente sería algo perjudicial para el “espíritu de Davos”. El coautor John Scott, director de sostenibilidad de la aseguradora Zurich, menciona como una oportunidad la posibilidad de añadir marcas de agua a las publicaciones en las redes sociales que confirmen su autenticidad.

Además: las 1.500 personas que el FEM encuesta anualmente pueden ser líderes empresariales y políticos, de la sociedad civil y del mundo académico, que piensan mucho en los principales riesgos que enfrenta el mundo. Pero no son adivinos y se han equivocado frecuente y espectacularmente. Es muy posible que su pesimismo para 2024 también resulte exagerado. La visión sombría del mundo sin duda se contagiará para entonces en las decisiones de todos estos “tomadores de decisiones”.



Source link-58