Estados Unidos y el Reino Unido firman un pacto sobre inteligencia artificial inspirado en acuerdos de intercambio de información


LagartoFilm/Dreamstime

Estados Unidos y el Reino Unido han firmado un acuerdo histórico sobre inteligencia artificial, a medida que los aliados se convierten en los primeros países en cooperar formalmente sobre cómo probar y evaluar los riesgos de los modelos de IA emergentes.

El acuerdo, firmado el lunes en Washington por la ministra de Ciencia del Reino Unido, Michelle Donelan, y la secretaria de Comercio de Estados Unidos, Gina Raimondo, establece cómo los dos gobiernos pondrán en común conocimientos técnicos, información y talento sobre la seguridad de la IA.

El acuerdo representa el primer acuerdo bilateral sobre seguridad de la IA en el mundo y se produce en un momento en que los gobiernos presionan por una mayor regulación de los riesgos existenciales de las nuevas tecnologías, como su uso para dañar ciberataques o diseñar armas biológicas.

“El próximo año es cuando realmente tendremos que actuar rápidamente porque la próxima generación de [AI] Están saliendo modelos que podrían cambiar completamente las reglas del juego, y aún no conocemos todas las capacidades que ofrecerán”, dijo Donelan al Financial Times.

El acuerdo permitirá específicamente que el nuevo Instituto de Seguridad de la IA (AISI, por sus siglas en inglés) del Reino Unido, creado en noviembre, y su equivalente estadounidense, que aún no ha comenzado a funcionar, intercambien experiencia mediante la adscripción de investigadores de ambos países. Los institutos también trabajarán juntos sobre cómo evaluar de forma independiente modelos privados de IA creados por empresas como OpenAI y Google.

La asociación sigue el modelo de la que existe entre la Sede de Comunicaciones del Gobierno del Reino Unido (GCHQ) y la Agencia de Seguridad Nacional de EE. UU., que trabajan en estrecha colaboración en asuntos relacionados con la inteligencia y la seguridad.

«El hecho de que Estados Unidos, una gran potencia de la IA, esté firmando este acuerdo con nosotros, el Reino Unido, dice mucho de cómo estamos liderando el camino en materia de seguridad de la IA», dijo Donelan.

Añadió que, dado que muchas de las empresas de IA más avanzadas tenían su sede actualmente en los EE. UU., la experiencia del gobierno estadounidense era clave tanto para comprender los riesgos de la IA como para hacer que las empresas cumplieran sus compromisos.

Sin embargo, Donelan insistió en que, a pesar de realizar investigaciones sobre la seguridad de la IA y garantizar la existencia de barandillas, el Reino Unido no planeaba regular la tecnología de manera más amplia en el corto plazo, ya que estaba evolucionando demasiado rápido.

La situación contrasta con la de otras naciones y regiones. La UE aprobó su Ley de IA, considerada el régimen más estricto sobre el uso de IA en el mundo. El presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva dirigida a los modelos de inteligencia artificial que pueden amenazar la seguridad nacional. China ha emitido directrices que buscan garantizar que la tecnología no desafíe su antiguo régimen de censura.

Raimondo dijo que la IA era «la tecnología definitoria de nuestra generación».

«Esta asociación acelerará el trabajo de nuestros dos institutos en todo el espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en general», dijo.

“Nuestra asociación deja claro que no estamos huyendo de estas preocupaciones, sino que las estamos atacando. Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de IA, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas”.

El AISI, respaldado por el gobierno del Reino Unido y presidido por el inversor y empresario tecnológico Ian Hogarth, ha contratado a investigadores como Geoffrey Irving de Google DeepMind y Chris Summerfield de la Universidad de Oxford para comenzar a probar modelos de IA existentes e inéditos.

OpenAI, Google DeepMind, Microsoft y Meta se encuentran entre los grupos tecnológicos que firmaron compromisos voluntarios para abrir sus últimos modelos de IA generativa para su revisión por parte del AISI de Gran Bretaña, que se estableció después de la Cumbre de Seguridad de IA del Reino Unido en Bletchley Park.

El instituto es clave para la ambición del primer ministro Rishi Sunak de que el Reino Unido desempeñe un papel central a la hora de abordar el desarrollo de la IA.

Las pruebas se han centrado en los riesgos asociados con el uso indebido de la tecnología, incluida la seguridad cibernética, apoyándose en la experiencia del Centro Nacional de Seguridad Cibernética dentro del GCHQ, según una persona con conocimiento directo del asunto.

Donelan dijo que ella y Raimondo planeaban discutir desafíos compartidos, como el impacto de la IA en las próximas elecciones de este año. El ministro de Ciencia añadió que también discutirían la necesidad de una infraestructura informática para la IA, «compartir nuestras habilidades y cómo podemos profundizar nuestra colaboración en general para beneficiar al público».

© 2024 The Financial Times Ltd. Todos los derechos reservados. No debe ser redistribuido, copiado ni modificado de ninguna manera.



Source link-49