Estados Unidos y el Reino Unido se unen para probar la seguridad de los modelos de IA


OpenAI, Google, Anthropic y otras empresas que desarrollan IA generativa continúan mejorando sus tecnologías y lanzando modelos de lenguaje cada vez mejores y de gran tamaño. Para crear un enfoque común para la evaluación independiente de la seguridad de esos modelos a medida que salen, los gobiernos del Reino Unido y Estados Unidos han firmado un Memorando de Entendimiento. Juntos, el Instituto de Seguridad de IA del Reino Unido y su homólogo de EE. UU., que fue anunciado por la vicepresidenta Kamala Harris pero que aún no ha comenzado a funcionar, desarrollarán conjuntos de pruebas para evaluar los riesgos y garantizar la seguridad de «los modelos de IA más avanzados». «

Están planeando compartir conocimientos técnicos, información e incluso personal como parte de la asociación, y uno de sus objetivos iniciales parece ser realizar un ejercicio de prueba conjunto en un modelo de acceso público. La ministra de ciencia del Reino Unido, Michelle Donelan, quien firmó el acuerdo, dijo El tiempo financiero que «realmente tienen que actuar rápidamente» porque esperan que salga una nueva generación de modelos de IA durante el próximo año. Creen que esos modelos podrían ser «revolucionarios totales» y todavía no saben de qué podrían ser capaces.

De acuerdo a Los tiempos, Esta asociación es el primer acuerdo bilateral sobre seguridad de la IA en el mundo, aunque tanto Estados Unidos como el Reino Unido tienen la intención de asociarse con otros países en el futuro. «La IA es la tecnología que define a nuestra generación. Esta asociación acelerará el trabajo de nuestros dos Institutos en todo el espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en general», dijo la Secretaria de Comercio de Estados Unidos, Gina Raimondo. «Nuestra asociación deja en claro que no estamos huyendo de estas preocupaciones: estamos corriendo hacia ellas. Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas. «

Si bien esta asociación en particular se centra en las pruebas y la evaluación, los gobiernos de todo el mundo también están invocando regulaciones para mantener bajo control las herramientas de inteligencia artificial. En marzo, la Casa Blanca firmó una orden ejecutiva destinada a garantizar que las agencias federales sólo utilicen herramientas de inteligencia artificial que «no pongan en peligro los derechos y la seguridad del pueblo estadounidense». Un par de semanas antes de eso, el Parlamento Europeo aprobó una amplia legislación para regular la inteligencia artificial. Prohibirá la «IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas», los «sistemas de categorización biométrica basados ​​en características sensibles», así como la «extracción no dirigida» de rostros de imágenes de CCTV y de la web para crear bases de datos de reconocimiento facial. Además, los deepfakes y otras imágenes, vídeos y audio generados por IA deberán etiquetarse claramente como tales según sus normas.



Source link-47