Las grandes empresas de IA firman un compromiso de seguridad


Tiempos financieros

Las principales empresas de inteligencia artificial se han suscrito a una nueva ronda de compromisos voluntarios sobre la seguridad de la IA, anunciaron los gobiernos del Reino Unido y Corea del Sur.

Las empresas, que incluyen a los gigantes tecnológicos Amazon, Google, Meta y Microsoft, así como OpenAI liderada por Sam Altman, xAI de Elon Musk y el desarrollador chino Zhipu AI, publicarán marcos que describirán cómo medirán los riesgos de su IA «de frontera». modelos.

Los grupos se comprometieron a “no desarrollar ni desplegar ningún modelo” si no se podían mitigar los riesgos graves, dijeron los dos gobiernos antes de la apertura de una cumbre mundial sobre IA en Seúl el martes.

El anuncio se basa en la llamada Declaración de Bletchley realizada en la Cumbre inaugural de Seguridad de la IA organizada por el Primer Ministro del Reino Unido, Rishi Sunak, en noviembre.

«Estos compromisos garantizan que las principales empresas de IA del mundo proporcionen transparencia y responsabilidad en sus planes para desarrollar una IA segura», dijo Sunak en un comunicado. «Sienta un precedente para los estándares globales sobre seguridad de la IA que desbloquearán los beneficios de esta tecnología transformadora».

Según un comunicado que describe el acuerdo, las empresas de IA «evaluarán los riesgos que plantean sus modelos o sistemas de frontera… incluso antes de implementar ese modelo o sistema y, según corresponda, antes y durante el entrenamiento».

Las empresas también establecerán los “umbrales en los que los riesgos graves planteados por un modelo o sistema, a menos que se mitiguen adecuadamente, se considerarían intolerables” y cómo se implementarán dichas mitigaciones.

«El campo de la seguridad de la IA está evolucionando rápidamente y estamos particularmente contentos de respaldar el énfasis de los compromisos en perfeccionar los enfoques junto con la ciencia», dijo Anna Makanju, vicepresidenta de asuntos globales de OpenAI.

«Seguimos comprometidos a colaborar con otros laboratorios de investigación, empresas y gobiernos para garantizar que la IA sea segura y beneficie a toda la humanidad».

El anuncio del martes se hace eco de los «compromisos voluntarios» asumidos en la Casa Blanca en julio del año pasado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft y OpenAI «para ayudar a avanzar hacia un desarrollo seguro y transparente de la tecnología de IA».

Sin embargo, aún no está claro cómo se puede pedir cuentas a las empresas si no cumplen sus compromisos.

El comunicado del martes decía que las 16 empresas «proporcionarían transparencia pública» en la implementación de sus promesas, «excepto en la medida en que hacerlo aumentara el riesgo o divulgara información comercial sensible en un grado desproporcionado para el beneficio social».

Hablando en Seúl antes de una reunión virtual de líderes el martes por la noche, la secretaria de Ciencia del Reino Unido, Michelle Donelan, dijo al Financial Times que los acuerdos voluntarios alcanzados en Bletchley habían estado funcionando.

«Por lo tanto, creemos que estos acuerdos seguirán dando dividendos», dijo Donelan.

«Pero no se trata sólo de qué más pueden hacer las empresas, sino también de qué más pueden hacer los países», añadió. Donelan confirmó que el gobierno chino estaría representado en las reuniones que se celebrarán el miércoles en el segundo día de la cumbre.

Dan Hendrycks, asesor de seguridad de xAI, dijo que los compromisos voluntarios ayudarían a «sentar las bases para una regulación nacional concreta».

Pero Donelan reiteró la postura del Reino Unido de que era demasiado pronto para considerar una legislación para hacer cumplir la seguridad de la IA.

“Necesitamos manejar mejor los riesgos”, dijo, y señaló que el gobierno del Reino Unido ofrecería hasta £8,5 millones en subvenciones para estudiar los riesgos relacionados con la IA, como los deepfakes y los ciberataques.

Añadió que si el gobierno del Reino Unido hubiera iniciado una legislación sobre el tema el año pasado, “para cuando saliera a la luz, probablemente estaría obsoleta”.

© 2024 The Financial Times Ltd. Todos los derechos reservados. No debe ser redistribuido, copiado ni modificado de ninguna manera.



Source link-49