Gigantes digitales firman un acuerdo contra el uso engañoso de la IA en las elecciones


Se trata de un texto de tres páginas, que contiene grandes principios y medios de acción, que una veintena de grandes empresas digitales firmaron el viernes 16 de febrero. Entre ellos, Google, Meta, OpenAI, Microsoft, Amazon, X, TikTok, Adobe, Snap e incluso Stability AI, que prometen gracias a este acuerdo. “para ayudar a prevenir contenido engañoso generado por IA [intelligence artificielle] interferir en las elecciones previstas para este año en todo el mundo »podemos leer en un comunicado de prensa conjunto.

La firma de este texto se produjo en el marco del Foro de Seguridad de Munich, un evento que reunió a numerosos ministros y jefes de gobierno, como la vicepresidenta estadounidense, Kamala Harris, la presidenta de la Comisión Europea, Ursula von der Leyen, el canciller alemán, Olaf Scholz, y el presidente ucraniano, Volodymyr Zelensky.

Mientras la mitad de la población mundial en edad de votar está llamada a acudir a las urnas en 2024 (ya sea en papeletas libres o predeterminadas), está aumentando la presión sobre las grandes empresas digitales, cuyas herramientas y plataformas se explotan periódicamente para la manipulación política. Este año, el foco de preocupación son las tecnologías de inteligencia artificial generativa, que permiten producir imágenes desde cero o manipular vídeos y sonidos.

Entre los firmantes se encuentran empresas que están a la vanguardia en el desarrollo de estas herramientas, como OpenAI o Google, y otras cuyas plataformas sirven para distribuir estos contenidos, como TikTok -en ocasiones, como es el caso de Meta (propietaria de Facebook, Instagram y WhatsApp-). ), los dos al mismo tiempo.

Trazabilidad de contenidos

En este texto, estas veinte empresas pretenden “audios, videos o imágenes convincentes generados por IA que simulan o alteran deshonestamente la apariencia, la voz o las acciones de los candidatos, organizadores de encuestas u otras partes interesadas clave en las elecciones democráticas, o que brindan información falsa a los votantes sobre cuándo, dónde y cómo votar. »

Se comprometen a trabajar en el desarrollo de herramientas comunes que permitan, por ejemplo, » marcar « estos contenidos, especialmente en el momento de su creación, con el fin de garantizar su trazabilidad. Esto permitiría que cada imagen generada por IA contuviera una especie de “marca de agua digital”, legible por máquinas. Trabajos ya en curso, en particular con el estándar C2PA.

Estas empresas también afirman su deseo de buscar detectar este contenido político engañoso en sus plataformas, y mencionan ciertas medidas posibles: utilizar tecnologías de detección, dar a los creadores la posibilidad de indicar fácilmente que han utilizado la IA o permitir a los usuarios denunciar contenidos sospechosos.

Pero una vez detectado este contenido, ¿cómo piensan actuar las plataformas? El texto sigue siendo relativamente vago y evoca “respuestas rápidas y proporcionadas”. “Esto podría incluir, entre otros, adoptar y publicar reglas y trabajar para proporcionar información contextual” cuando se detecte dicho contenido. Evasivas, pero estas empresas caminan con cautela al intentar conciliar la lucha contra los contenidos engañosos y la libertad de expresión: precisan que tendrán que hacerlo “prestar atención al contexto y preservar la expresión educativa, documental, artística, satírica y política”. Los firmantes también se comprometen a demostrar transparencia con respecto a las políticas implementadas y a participar en la información al público en general sobre los riesgos existentes.

Casos aún raros

Este acuerdo no vinculante sirve sobre todo como una importante declaración de principios sobre un tema delicado sobre el que se espera con impaciencia a estas empresas. Pero no contiene ninguna medida nueva y demoledora: está en consonancia con lo que algunos de estos grupos ya habían anunciado en el pasado. En julio, Google, Meta, OpenAI y Microsoft, por ejemplo, se comprometieron con la Casa Blanca a desarrollar formas de informar a sus usuarios cuándo el contenido fue generado por IA. Meta reiteró este compromiso a principios de febrero, en una publicación de blog, manifestando su intención. identificar » en los próximos meses « cualquier imagen generada por IA.

Leer también | Meta pretende identificar automáticamente imágenes generadas por IA en sus redes sociales

Estas empresas están bajo la presión de distintos gobiernos, que amenazan con legislar sobre inteligencia artificial. Con este acuerdo esperan tranquilizar a los legisladores sobre su capacidad de autorregulación. La Unión Europea, por su parte, ya ha tomado decisiones, con la Ley AI, validada por los representantes de los Veintisiete el 2 de febrero, que debería entrar en vigor en 2025. El texto impone, entre otras cosas, la etiquetar deepfakes.

El mundo

Oferta especial para estudiantes y profesores.

Acceso ilimitado a todo nuestro contenido desde 8,99 euros al mes en lugar de 10,99 euros

Suscribir

Los veinte firmantes, sin embargo, quisieron recordar, en este texto, que los contenidos generados por la IA “no son los únicos que representan riesgos, y que las manipulaciones tradicionales [cheapfakes] También se puede utilizar para los mismos fines. El año pasado, circuló ampliamente un video editado para que pareciera que Joe Biden tocaba repetidamente el pecho de su nieta. Los firmantes también destacaron que la IA es una poderosa herramienta para defenderse de los intentos de manipulación, citando la rápida detección de campañas maliciosas, la capacidad de actuar simultáneamente en diferentes idiomas y a gran escala.

Las empresas también insistieron en que esta lucha no era responsabilidad exclusiva de ellos: “Estamos comprometidos a hacer nuestra parte como empresas tecnológicas, al tiempo que afirmamos que el uso engañoso de la IA no es sólo un desafío técnico, sino un problema político, social y ético, y esperamos que otros también se comprometan a tomar medidas en el resto. de la sociedad. »

Hasta ahora han surgido algunos ejemplos de contenido político engañoso. Los residentes de New Hampshire recibieron recientemente llamadas automáticas que reproducían la voz de Joe Biden, con el objetivo de disuadirlos de votar en las primarias de enero. Lo suficiente como para temer un aumento en el período previo a las próximas elecciones, aunque en realidad los casos siguen siendo raros. Por el momento, la gran mayoría de los contenidos nocivos producidos por la IA se dirigen principalmente a mujeres, representadas en escenas pornográficas, como sufrió recientemente la estrella estadounidense Taylor Swift.

El mundo



Source link-5