{"id":739128,"date":"2023-07-21T10:11:14","date_gmt":"2023-07-21T10:11:14","guid":{"rendered":"https:\/\/magazineoffice.com\/gigantes-de-ia-se-comprometen-a-permitir-pruebas-externas-de-sus-algoritmos-bajo-un-nuevo-pacto-de-la-casa-blanca\/"},"modified":"2023-07-21T10:11:18","modified_gmt":"2023-07-21T10:11:18","slug":"gigantes-de-ia-se-comprometen-a-permitir-pruebas-externas-de-sus-algoritmos-bajo-un-nuevo-pacto-de-la-casa-blanca","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/gigantes-de-ia-se-comprometen-a-permitir-pruebas-externas-de-sus-algoritmos-bajo-un-nuevo-pacto-de-la-casa-blanca\/","title":{"rendered":"Gigantes de IA se comprometen a permitir pruebas externas de sus algoritmos, bajo un nuevo pacto de la Casa Blanca"},"content":{"rendered":"


\n<\/p>\n

\n

La casa Blanca<\/span> ha llegado a un acuerdo con los principales desarrolladores de IA, incluidos Amazon, Google, Meta, Microsoft y OpenAI, que los compromete a tomar medidas para evitar que los modelos de IA da\u00f1inos se publiquen en el mundo.<\/p>\n

Seg\u00fan el acuerdo, que la Casa Blanca llama un \u00abcompromiso voluntario\u00bb, las empresas se comprometen a realizar pruebas internas y permitir pruebas externas de nuevos modelos de IA antes de que se publiquen. La prueba buscar\u00e1 problemas que incluyen resultados sesgados o discriminatorios, fallas de seguridad cibern\u00e9tica y riesgos de da\u00f1os sociales m\u00e1s amplios. Las startups Anthropic e Inflection, ambas desarrolladoras de notables rivales de ChatGPT de OpenAI, tambi\u00e9n participaron en el acuerdo.<\/p>\n

\u201cLas empresas tienen el deber de garantizar que sus productos sean seguros antes de presentarlos al p\u00fablico probando la seguridad y la capacidad de sus sistemas de IA\u201d, dijo a periodistas el asesor especial de la Casa Blanca para IA, Ben Buchanan, en una sesi\u00f3n informativa ayer. Los riesgos que se les pidi\u00f3 a las empresas que tuvieran en cuenta incluyen violaciones de la privacidad e incluso posibles contribuciones a las amenazas biol\u00f3gicas. Las empresas tambi\u00e9n se comprometieron a informar p\u00fablicamente sobre las limitaciones de sus sistemas y los riesgos sociales y de seguridad que podr\u00edan plantear.<\/p>\n

El acuerdo tambi\u00e9n dice que las empresas desarrollar\u00e1n sistemas de marcas de agua que faciliten a las personas la identificaci\u00f3n de audio e im\u00e1genes generadas por IA. OpenAI ya agrega marcas de agua a las im\u00e1genes producidas por su generador de im\u00e1genes Dall-E, y Google ha dicho que est\u00e1 desarrollando una tecnolog\u00eda similar para im\u00e1genes generadas por IA. Ayudar a las personas a discernir qu\u00e9 es real y qu\u00e9 es falso es un problema cada vez mayor, ya que las campa\u00f1as pol\u00edticas parecen estar recurriendo a la IA generativa antes de las elecciones estadounidenses de 2024.<\/p>\n

Los avances recientes en los sistemas de IA generativa que pueden crear texto o im\u00e1genes han desencadenado una renovada carrera armamentista de IA entre las empresas que adaptan la tecnolog\u00eda para tareas como la b\u00fasqueda en la web y la redacci\u00f3n de cartas de recomendaci\u00f3n. Pero los nuevos algoritmos tambi\u00e9n han provocado una renovada preocupaci\u00f3n acerca de que la IA refuerce los sistemas sociales opresivos como el sexismo o el racismo, aumente la desinformaci\u00f3n electoral o se convierta en herramientas para el ciberdelito. Como resultado, los reguladores y legisladores en muchas partes del mundo, incluido Washington, DC, han aumentado los pedidos de nuevas regulaciones, incluidos los requisitos para evaluar la IA antes del despliegue.<\/p>\n

No est\u00e1 claro cu\u00e1nto cambiar\u00e1 el acuerdo la forma en que operan las principales empresas de inteligencia artificial. La creciente conciencia de las posibles desventajas de la tecnolog\u00eda ha hecho que sea com\u00fan que las empresas de tecnolog\u00eda contraten personas para trabajar en pol\u00edticas y pruebas de IA. Google tiene equipos que prueban sus sistemas y publica cierta informaci\u00f3n, como los casos de uso previstos y las consideraciones \u00e9ticas para ciertos modelos de IA. Meta y OpenAI a veces invitan a expertos externos para intentar romper sus modelos en un enfoque denominado red-teaming.<\/p>\n

\u201cGuiados por los principios perdurables de seguridad, protecci\u00f3n y confianza, los compromisos voluntarios abordan los riesgos que presentan los modelos avanzados de IA y promueven la adopci\u00f3n de pr\u00e1cticas espec\u00edficas, como las pruebas de equipo rojo y la publicaci\u00f3n de informes de transparencia, que impulsar\u00e1n todo el ecosistema\u201d, dijo el presidente de Microsoft, Brad Smith, en una publicaci\u00f3n de blog.<\/p>\n

Los riesgos sociales potenciales que el acuerdo promete a las empresas a tener en cuenta no incluyen la huella de carbono del entrenamiento de modelos de IA, una preocupaci\u00f3n que ahora se cita com\u00fanmente en la investigaci\u00f3n sobre el impacto de los sistemas de IA. La creaci\u00f3n de un sistema como ChatGPT puede requerir miles de procesadores de computadora de alta potencia, funcionando durante largos per\u00edodos de tiempo.<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La casa Blanca ha llegado a un acuerdo con los principales desarrolladores de IA, incluidos Amazon, Google, Meta, Microsoft y OpenAI, que los compromete a tomar medidas para evitar que…<\/p>\n","protected":false},"author":1,"featured_media":739129,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[25336,2668,4886,960,10727,13789,10601,104,7696,14022,4939,663],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/739128"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=739128"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/739128\/revisions"}],"predecessor-version":[{"id":739130,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/739128\/revisions\/739130"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/739129"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=739128"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=739128"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=739128"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}