El Reino Unido enumera los principales escenarios de pesadilla de IA antes de su gran cumbre tecnológica


Armas biológicas mortales, ataques automatizados a la ciberseguridad, potentes modelos de IA que escapan al control humano. Estas son sólo algunas de las amenazas potenciales que plantea la inteligencia artificial, según un nuevo informe del gobierno del Reino Unido. Se publicó para ayudar a establecer la agenda de una cumbre internacional sobre seguridad de la IA que se celebrará en el Reino Unido la próxima semana. El informe se compiló con aportaciones de empresas líderes en inteligencia artificial, como la unidad DeepMind de Google y varios departamentos gubernamentales del Reino Unido, incluidas agencias de inteligencia.

Joe White, enviado de tecnología del Reino Unido a Estados Unidos, dice que la cumbre brinda la oportunidad de reunir a países y empresas líderes en inteligencia artificial para comprender mejor los riesgos que plantea la tecnología. Manejar las posibles desventajas de los algoritmos requerirá una colaboración orgánica a la antigua, dice White, quien ayudó a planificar la cumbre de la próxima semana. «Estos no son desafíos de máquina a humano», dice White. «Estos son desafíos de persona a persona».

El primer ministro del Reino Unido, Rishi Sunak, pronunciará un discurso mañana sobre cómo, si bien la IA abre oportunidades para el avance de la humanidad, es importante ser honesto acerca de los nuevos riesgos que crea para las generaciones futuras.

La Cumbre de Seguridad de la IA del Reino Unido se llevará a cabo los días 1 y 2 de noviembre y se centrará principalmente en las formas en que las personas pueden hacer mal uso o perder el control de formas avanzadas de IA. Algunos expertos y ejecutivos de IA en el Reino Unido han criticado el enfoque del evento, diciendo que el gobierno debería priorizar preocupaciones más a corto plazo, como ayudar al Reino Unido a competir con líderes mundiales en IA como Estados Unidos y China.

Algunos expertos en IA han advertido que un reciente repunte en el debate sobre escenarios lejanos de IA, incluida la posibilidad de extinción humana, podría distraer a los reguladores y al público de problemas más inmediatos, como algoritmos sesgados o que la tecnología de IA fortalezca a empresas que ya son dominantes.

El informe del Reino Unido publicado hoy considera las implicaciones para la seguridad nacional de los grandes modelos lingüísticos, la tecnología de inteligencia artificial detrás de ChatGPT. White dice que las agencias de inteligencia del Reino Unido están trabajando con el Frontier AI Task Force, un grupo de expertos del gobierno del Reino Unido, para explorar escenarios como lo que podría suceder si los malos actores combinaran un gran modelo lingüístico con documentos secretos del gobierno. Una posibilidad funesta discutida en el informe sugiere que un modelo de lenguaje amplio que acelere el descubrimiento científico también podría impulsar proyectos que intenten crear armas biológicas.

En julio de este año, Dario Amodei, director ejecutivo de la startup de inteligencia artificial Anthropic, dijo a los miembros del Senado de Estados Unidos que dentro de los próximos dos o tres años podría ser posible que un modelo de lenguaje sugiera cómo llevar a cabo ataques con armas biológicas a gran escala. Pero White dice que el informe es un documento de alto nivel que no pretende “servir como una lista de compras de todas las cosas malas que se pueden hacer”.

Además de las agencias gubernamentales del Reino Unido, el informe publicado hoy fue revisado por un panel que incluye expertos en políticas y ética del laboratorio de inteligencia artificial DeepMind de Google, que comenzó como una startup de inteligencia artificial en Londres y fue adquirida por la compañía de búsqueda en 2014, y Hugging Face, una startup. Desarrollar software de inteligencia artificial de código abierto.

También se consultó a Yoshua Bengio, uno de los tres “padrinos de la IA” que ganó el premio más importante en informática, el Premio Turing, por técnicas de aprendizaje automático fundamentales para el actual auge de la IA. Bengio dijo recientemente que su optimismo sobre la tecnología que ayudó a fomentar se ha agriado y que se necesita una nueva organización de “defensa de la humanidad” para ayudar a mantener la IA bajo control.



Source link-46