OpenAI y otros gigantes tecnológicos tendrán que advertir al gobierno de EE. UU. cuando inicien nuevos proyectos de IA


El anuncio de Raimondo llega el mismo día en que Google promocionado la publicación de nuevos datos que destacan la destreza de su último modelo de inteligencia artificial, Gemini, que muestra que supera al GPT-4 de OpenAI, que impulsa ChatGPT, en algunos puntos de referencia de la industria. El Departamento de Comercio de EE.UU. puede recibir una alerta temprana sobre el sucesor de Gemini, si el proyecto utiliza suficientes recursos de computación en la nube de Google.

El rápido progreso en el campo de la IA el año pasado llevó a algunos expertos y ejecutivos de IA a pedir una pausa temporal en el desarrollo de algo más poderoso que GPT-4, el modelo utilizado actualmente para ChatGPT.

Samuel Hammond, economista senior de la Fundación para la Innovación Estadounidense, un grupo de expertos, dice que un desafío clave para el gobierno de Estados Unidos es que un modelo no necesariamente necesita superar un umbral de cómputo en el entrenamiento para ser potencialmente peligroso.

Dan Hendrycks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro, dice que el requisito es proporcional dados los recientes avances en la IA y las preocupaciones sobre su poder. «Las empresas están gastando muchos miles de millones en formación en IA, y sus directores ejecutivos advierten que la IA podría volverse superinteligente en los próximos dos años», afirma. «Parece razonable que el gobierno esté al tanto de lo que están haciendo las empresas de IA».

Anthony Aguirre, director ejecutivo del Future of Life Institute, una organización sin fines de lucro dedicada a garantizar que las tecnologías transformadoras beneficien a la humanidad, está de acuerdo. “A partir de ahora, se están llevando a cabo experimentos gigantes con prácticamente cero supervisión o regulación externa”, afirma. “Informar sobre esos entrenamientos de IA y las medidas de seguridad relacionadas es un paso importante. Pero se necesita mucho más. Existe un fuerte acuerdo bipartidista sobre la necesidad de regular la IA y es de esperar que el Congreso pueda actuar al respecto pronto”.

Raimondo dijo en el evento de la Institución Hoover el viernes que los Institutos Nacionales de Estándares y Tecnología, NIST, están trabajando actualmente para definir estándares para probar la seguridad de los modelos de IA, como parte de la creación de un nuevo Instituto de Seguridad de IA del gobierno de EE. UU. Determinar qué tan riesgoso es un modelo de IA generalmente implica probar un modelo para intentar evocar comportamientos o resultados problemáticos, un proceso conocido como «equipo rojo».

Raimondo dijo que su departamento estaba trabajando en directrices que ayudarán a las empresas a comprender mejor los riesgos que podrían acechar en los modelos que están ideando. Estas directrices podrían incluir formas de garantizar que la IA no pueda utilizarse para cometer abusos contra los derechos humanos, sugirió.

La orden ejecutiva de octubre sobre IA le da al NIST hasta el 26 de julio para implementar esos estándares, pero algunos que trabajan con la agencia dicen que carece de los fondos o la experiencia necesarios para hacerlo adecuadamente.





Source link-46