OpenAI, DeepMind y Anthropic darán acceso temprano al Reino Unido a modelos fundamentales para la investigación de seguridad de IA


Tras el anuncio del gobierno del Reino Unido la semana pasada de que planea organizar una cumbre de seguridad de IA «global» este otoño, el primer ministro Rishi Sunak inauguró la London Tech Week con otra noticia: les dijo a los asistentes a la conferencia que OpenAI, Google DeepMind y Anthropic se han comprometido para proporcionar «acceso temprano o prioritario» a sus modelos de IA para apoyar la investigación en evaluación y seguridad.

Sunak ha tenido una conversión acelerada al tema de la seguridad de la IA en las últimas semanas, luego de una serie de intervenciones de gigantes de la IA que advierten sobre los riesgos existenciales e incluso de extinción que la tecnología podría presentar si no está debidamente regulada.

“Vamos a hacer vanguardistas [AI] investigación de seguridad aquí en el Reino Unido”, prometió hoy Sunak. “Con 100 millones de libras esterlinas para nuestro grupo de expertos, estamos dedicando más fondos a la seguridad de la IA que cualquier otro gobierno.

Este grupo de trabajo de seguridad de IA se centrará en los modelos básicos de IA, también dijo el gobierno.

“Estamos trabajando con los laboratorios fronterizos: Google DeepMind, OpenAI y Anthropic”, agregó Sunak. “Y me complace anunciar que se comprometieron a brindar acceso temprano o prioritario a los modelos con fines de investigación y seguridad para ayudar a construir mejores evaluaciones y ayudarnos a comprender mejor las oportunidades y los riesgos de estos sistemas”.

El primer ministro también reiteró su anuncio anterior de la próxima cumbre de seguridad de IA, buscando comparar el esfuerzo con las conferencias climáticas de la COP, cuyo objetivo es lograr la aceptación global para abordar el cambio climático.

“Así como nos unimos a través de la COP para abordar el cambio climático, el Reino Unido organizará la primera Cumbre sobre seguridad global de IA a finales de este año”, dijo, y agregó: “Quiero hacer del Reino Unido no solo el hogar intelectual sino el hogar geográfico. , de la regulación global de seguridad de la IA”.

Evangelizar la seguridad de la IA es un marcado cambio de marcha para el gobierno de Sunak.

Recientemente, en marzo, estaba en modo animador de IA completo, diciendo en un libro blanco que favorecía «un enfoque favorable a la innovación para la regulación de la IA”. El enfoque establecido en el documento restó importancia a las preocupaciones de seguridad al evitar la necesidad de leyes a medida para la inteligencia artificial (o un organismo de control de IA dedicado) a favor de establecer algunos «principios flexibles». El gobierno también sugirió que los organismos reguladores existentes, como el organismo de control antimonopolio y la autoridad de protección de datos, lleven a cabo la supervisión de las aplicaciones de IA.

Avance rápido unos meses y Sunank ahora está hablando en términos de querer que el Reino Unido albergue un organismo de control de seguridad de IA global. O, al menos, que quiere que el Reino Unido sea dueño de la conversación sobre seguridad de la IA al dominar la investigación sobre cómo evaluar los resultados de los algoritmos de aprendizaje.

Los rápidos desarrollos en IA generativa combinados con pronunciamientos públicos de una variedad de gigantes tecnológicos y figuras de la industria de IA que advierten que la tecnología podría salirse de control parecen haber llevado a un rápido replanteamiento de la estrategia en Downing Street.

También es notable que los gigantes de la IA hayan estado escuchando a Sunak en persona en las últimas semanas, con reuniones entre el primer ministro y los directores ejecutivos de OpenAI, DeepMind y Anthropic poco antes de que cambiara la música ambiental del gobierno sobre la IA.

Si este trío de gigantes de la IA cumple con sus compromisos de proporcionar al Reino Unido acceso avanzado a sus modelos, existe la posibilidad de que el país lidere la investigación para desarrollar técnicas efectivas de evaluación y auditoría, incluso antes de que cualquier régimen de supervisión legislativa que exija la transparencia algorítmica haya girado. en otros lugares (no se espera que el proyecto de Ley de IA de la Unión Europea entre en vigor legalmente hasta 2026, por ejemplo; aunque la Ley de Servicios Digitales de la UE ya está en vigor y ya requiere cierta transparencia algorítmica de los gigantes tecnológicos).

Al mismo tiempo, existe el riesgo de que el Reino Unido se vuelva vulnerable a la captura de la industria de sus incipientes esfuerzos de seguridad de IA. Y si los gigantes de la IA logran dominar la conversación sobre la investigación de seguridad de la IA al proporcionar acceso selectivo a sus sistemas, podrían estar en una buena posición para dar forma a las futuras reglas de IA del Reino Unido que se aplicarían a sus negocios.

La estrecha participación de los gigantes tecnológicos de IA en la investigación financiada con fondos públicos sobre la seguridad de sus tecnologías comerciales antes de que se les aplique cualquier marco de seguridad de IA legalmente vinculante sugiere que al menos tendrán margen para enmarcar cómo se considera la seguridad de IA y qué componentes, temas y los temas se priorizan (y que, por lo tanto, se minimizan). Y al influir en el tipo de investigación que se lleva a cabo, ya que puede basarse en la cantidad de acceso que brindan.

Mientras tanto, los especialistas en ética de la IA han advertido durante mucho tiempo que los temores que acaparan los titulares sobre los riesgos que las IA «superinteligentes» podrían representar para los humanos están ahogando la discusión sobre los daños en el mundo real que las tecnologías de IA existentes ya están generando, incluido el sesgo y la discriminación, el abuso de la privacidad, la infracción de derechos de autor y los recursos ambientales. explotación.

Entonces, si bien el gobierno del Reino Unido puede ver la aceptación de los gigantes de la IA como un golpe de relaciones públicas, si la cumbre de la IA y los esfuerzos más amplios de seguridad de la IA van a producir resultados sólidos y creíbles, debe garantizar la participación de investigadores independientes, grupos de la sociedad civil y grupos que son desproporcionadamente en riesgo de sufrir daños por la automatización, no solo anuncia su plan para una asociación entre «compañías brillantes de IA» y académicos locales, dado que la investigación académica ya depende a menudo de la financiación de los gigantes tecnológicos.





Source link-48