Los gigantes tecnológicos firman un compromiso voluntario para luchar contra los deepfakes relacionados con las elecciones


Las empresas de tecnología se comprometen a luchar contra los deepfakes relacionados con las elecciones a medida que los responsables políticos aumentan la presión.

Hoy, en la Conferencia de Seguridad de Múnich, proveedores como Microsoft, Meta, Google, Amazon, Adobe e IBM firmaron un acuerdo que indica su intención de adoptar un marco común para responder a los deepfakes generados por IA destinados a engañar a los votantes. Otras trece empresas, incluidas las nuevas empresas de inteligencia artificial OpenAI, Anthropic, Inflection AI, ElevenLabs y Stability AI y las plataformas de redes sociales X (anteriormente Twitter), TikTok y Snap, se unieron a la firma del acuerdo, junto con el fabricante de chips Arm y las empresas de seguridad McAfee y TrendMicro.

Los abajo firmantes dijeron que utilizarán métodos para detectar y etiquetar deepfakes políticos engañosos cuando se creen y distribuyan en sus plataformas, compartirán las mejores prácticas entre sí y brindarán «respuestas rápidas y proporcionadas» cuando los deepfakes comiencen a difundirse. Las empresas agregaron que prestarán especial atención al contexto al responder a los deepfakes, con el objetivo de «[safeguard] expresión educativa, documental, artística, satírica y política” manteniendo la transparencia con los usuarios sobre sus políticas sobre contenido electoral engañoso.

El acuerdo es efectivamente ineficaz y, tal vez digan algunos críticos, equivale a poco más que una señal de virtud: sus medidas son voluntarias. Pero el alboroto muestra una cautela entre el sector tecnológico ante los puntos de mira regulatorios en lo que respecta a las elecciones, en un año en el que el 49% de la población mundial acudirá a las urnas en las elecciones nacionales.

«No hay manera de que el sector tecnológico pueda proteger las elecciones por sí solo de este nuevo tipo de abuso electoral», dijo Brad Smith, vicepresidente y presidente de Microsoft, en un comunicado de prensa. “Al mirar hacia el futuro, a quienes trabajamos en Microsoft nos parece que también necesitaremos nuevas formas de acción de múltiples partes interesadas… Está muy claro que la protección de las elecciones [will require] que todos trabajemos juntos”.

Ninguna ley federal en los EE. UU. prohíbe los deepfakes, ya sean relacionados con las elecciones o de otro tipo. Pero 10 estados de todo el país han promulgado estatutos que los criminalizan, siendo Minnesota el primero en atacar los deepfakes utilizados en campañas políticas.

En otros lugares, las agencias federales han tomado todas las medidas coercitivas posibles para combatir la propagación de deepfakes.

Esta semana, la FTC anunció que busca modificar una regla existente que prohíbe la suplantación de empresas o agencias gubernamentales para cubrir a todos los consumidores, incluidos los políticos. Y la FCC tomó medidas para ilegalizar las llamadas automáticas con voz mediante IA reinterpretando una norma que prohíbe el spam de mensajes de voz artificiales y pregrabados.

En la Unión Europea, la Ley de IA del bloque exigiría que todo el contenido generado por IA esté claramente etiquetado como tal. La UE también está utilizando su Ley de Servicios Digitales para obligar a la industria tecnológica a frenar los deepfakes en diversas formas.

Mientras tanto, los deepfakes continúan proliferando. Según datos de Clarity, una empresa de detección de deepfakes, la cantidad de deepfakes que se han creado aumentó un 900% año tras año.

El mes pasado, llamadas automáticas de IA que imitaban la voz del presidente estadounidense Joe Biden intentaron disuadir a la gente de votar en las elecciones primarias de New Hampshire. Y en noviembre, pocos días antes de las elecciones en Eslovaquia, grabaciones de audio generadas por inteligencia artificial se hicieron pasar por un candidato liberal que discutía planes para aumentar los precios de la cerveza y manipular las elecciones.

En una encuesta reciente de YouGov, el 85% de los estadounidenses dijeron que estaban muy preocupados o algo preocupados por la difusión de videos y audios engañosos. Una encuesta separada de The Associated Press-NORC Center for Public Affairs Research encontró que casi el 60% de los adultos cree que las herramientas de inteligencia artificial aumentarán la difusión de información falsa y engañosa durante el ciclo electoral estadounidense de 2024.



Source link-48