{"id":982367,"date":"2024-01-26T22:48:07","date_gmt":"2024-01-26T22:48:07","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-y-otros-gigantes-tecnologicos-tendran-que-advertir-al-gobierno-de-ee-uu-cuando-inicien-nuevos-proyectos-de-ia\/"},"modified":"2024-01-26T22:48:09","modified_gmt":"2024-01-26T22:48:09","slug":"openai-y-otros-gigantes-tecnologicos-tendran-que-advertir-al-gobierno-de-ee-uu-cuando-inicien-nuevos-proyectos-de-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-y-otros-gigantes-tecnologicos-tendran-que-advertir-al-gobierno-de-ee-uu-cuando-inicien-nuevos-proyectos-de-ia\/","title":{"rendered":"OpenAI y otros gigantes tecnol\u00f3gicos tendr\u00e1n que advertir al gobierno de EE. UU. cuando inicien nuevos proyectos de IA"},"content":{"rendered":"


\n<\/p>\n

\n

El anuncio de Raimondo llega el mismo d\u00eda en que Google promocionado<\/a> la publicaci\u00f3n de nuevos datos que destacan la destreza de su \u00faltimo modelo de inteligencia artificial, Gemini, que muestra que supera al GPT-4 de OpenAI, que impulsa ChatGPT, en algunos puntos de referencia de la industria. El Departamento de Comercio de EE.UU. puede recibir una alerta temprana sobre el sucesor de Gemini, si el proyecto utiliza suficientes recursos de computaci\u00f3n en la nube de Google.<\/p>\n

El r\u00e1pido progreso en el campo de la IA el a\u00f1o pasado llev\u00f3 a algunos expertos y ejecutivos de IA a pedir una pausa temporal en el desarrollo de algo m\u00e1s poderoso que GPT-4, el modelo utilizado actualmente para ChatGPT.<\/p>\n

Samuel Hammond, economista senior de la Fundaci\u00f3n para la Innovaci\u00f3n Estadounidense, un grupo de expertos, dice que un desaf\u00edo clave para el gobierno de Estados Unidos es que un modelo no necesariamente necesita superar un umbral de c\u00f3mputo en el entrenamiento para ser potencialmente peligroso.<\/p>\n

Dan Hendrycks, director del Centro para la Seguridad de la IA, una organizaci\u00f3n sin fines de lucro, dice que el requisito es proporcional dados los recientes avances en la IA y las preocupaciones sobre su poder. \u00abLas empresas est\u00e1n gastando muchos miles de millones en formaci\u00f3n en IA, y sus directores ejecutivos advierten que la IA podr\u00eda volverse superinteligente en los pr\u00f3ximos dos a\u00f1os\u00bb, afirma. \u00abParece razonable que el gobierno est\u00e9 al tanto de lo que est\u00e1n haciendo las empresas de IA\u00bb.<\/p>\n

Anthony Aguirre, director ejecutivo del Future of Life Institute, una organizaci\u00f3n sin fines de lucro dedicada a garantizar que las tecnolog\u00edas transformadoras beneficien a la humanidad, est\u00e1 de acuerdo. \u201cA partir de ahora, se est\u00e1n llevando a cabo experimentos gigantes con pr\u00e1cticamente cero supervisi\u00f3n o regulaci\u00f3n externa\u201d, afirma. \u201cInformar sobre esos entrenamientos de IA y las medidas de seguridad relacionadas es un paso importante. Pero se necesita mucho m\u00e1s. Existe un fuerte acuerdo bipartidista sobre la necesidad de regular la IA y es de esperar que el Congreso pueda actuar al respecto pronto\u201d.<\/p>\n

Raimondo dijo en el evento de la Instituci\u00f3n Hoover el viernes que los Institutos Nacionales de Est\u00e1ndares y Tecnolog\u00eda, NIST, est\u00e1n trabajando actualmente para definir est\u00e1ndares para probar la seguridad de los modelos de IA, como parte de la creaci\u00f3n de un nuevo Instituto de Seguridad de IA del gobierno de EE. UU. Determinar qu\u00e9 tan riesgoso es un modelo de IA generalmente implica probar un modelo para intentar evocar comportamientos o resultados problem\u00e1ticos, un proceso conocido como \u00abequipo rojo\u00bb.<\/p>\n

Raimondo dijo que su departamento estaba trabajando en directrices que ayudar\u00e1n a las empresas a comprender mejor los riesgos que podr\u00edan acechar en los modelos que est\u00e1n ideando. Estas directrices podr\u00edan incluir formas de garantizar que la IA no pueda utilizarse para cometer abusos contra los derechos humanos, sugiri\u00f3.<\/p>\n

La orden ejecutiva de octubre sobre IA le da al NIST hasta el 26 de julio para implementar esos est\u00e1ndares, pero algunos que trabajan con la agencia dicen que carece de los fondos o la experiencia necesarios para hacerlo adecuadamente.<\/p>\n<\/div>\n