{"id":862537,"date":"2023-10-30T09:15:26","date_gmt":"2023-10-30T09:15:26","guid":{"rendered":"https:\/\/magazineoffice.com\/biden-publica-una-orden-ejecutiva-de-ia-que-ordena-a-las-agencias-desarrollar-pautas-de-seguridad\/"},"modified":"2023-10-30T09:15:31","modified_gmt":"2023-10-30T09:15:31","slug":"biden-publica-una-orden-ejecutiva-de-ia-que-ordena-a-las-agencias-desarrollar-pautas-de-seguridad","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/biden-publica-una-orden-ejecutiva-de-ia-que-ordena-a-las-agencias-desarrollar-pautas-de-seguridad\/","title":{"rendered":"Biden publica una orden ejecutiva de IA que ordena a las agencias desarrollar pautas de seguridad"},"content":{"rendered":"


\n<\/p>\n

\n
\n

El presidente Joe Biden firm\u00f3 una orden ejecutiva que establece reglas sobre la IA generativa, antes de cualquier legislaci\u00f3n proveniente de los legisladores. <\/p>\n<\/div>\n

\n

La orden tiene ocho objetivos: crear nuevos est\u00e1ndares para la seguridad de la IA, proteger la privacidad, promover la equidad y los derechos civiles, defender a los consumidores, pacientes y estudiantes, apoyar a los trabajadores, promover la innovaci\u00f3n y la competencia, promover el liderazgo estadounidense en tecnolog\u00edas de IA, y garantizar el uso gubernamental responsable y eficaz de la tecnolog\u00eda. <\/p>\n<\/div>\n

\n

Varias agencias gubernamentales tienen la tarea de crear est\u00e1ndares para proteger contra el uso de IA para dise\u00f1ar materiales biol\u00f3gicos, establecer mejores pr\u00e1cticas en torno a la autenticaci\u00f3n de contenido y crear programas avanzados de ciberseguridad. <\/p>\n<\/div>\n

\n

El Instituto Nacional de Est\u00e1ndares y Seguridad (NIST) ser\u00e1 responsable de desarrollar est\u00e1ndares para los modelos de IA del \u201cequipo rojo\u201d antes de su lanzamiento p\u00fablico, mientras que el Departamento de Energ\u00eda y el Departamento de Seguridad Nacional deben abordar la amenaza potencial de la IA a la infraestructura y el medio ambiente. riesgos qu\u00edmicos, biol\u00f3gicos, radiol\u00f3gicos, nucleares y de ciberseguridad. Los desarrolladores de grandes modelos de IA como GPT de OpenAI y Llama 2 de Meta deben compartir los resultados de las pruebas de seguridad. <\/p>\n<\/div>\n

\n

Un alto funcionario de la administraci\u00f3n Biden dijo a los periodistas en una sesi\u00f3n informativa que las pautas de seguridad se aplican principalmente a los futuros modelos de IA.<\/p>\n<\/div>\n

\n

\u00abNo vamos a retirar del mercado los modelos disponibles p\u00fablicamente que est\u00e9n disponibles\u00bb, dijo el funcionario. \u00abLos modelos existentes todav\u00eda est\u00e1n sujetos a las normas antidiscriminatorias que ya est\u00e1n en vigor\u00bb.<\/p>\n<\/div>\n

\n

Para proteger la privacidad de los usuarios, la Casa Blanca pidi\u00f3 al Congreso que aprobara regulaciones de privacidad de datos. La orden tambi\u00e9n busca apoyo federal para el desarrollo de t\u00e9cnicas y tecnolog\u00edas de \u201cpreservaci\u00f3n de la privacidad\u201d. <\/p>\n<\/div>\n

\n

Parte de la orden planea prevenir el uso de IA para discriminar, incluido abordar la discriminaci\u00f3n algor\u00edtmica y garantizar la equidad al utilizar la tecnolog\u00eda para sentencias, libertad condicional y vigilancia. Tambi\u00e9n ordena a las agencias gubernamentales que proporcionen pautas para los propietarios, programas de beneficios federales y contratos sobre c\u00f3mo evitar que la IA exacerbe la discriminaci\u00f3n.<\/p>\n<\/div>\n

\n

Las agencias deben abordar el desplazamiento laboral y producir un informe sobre el impacto de la IA en el mercado laboral. La Casa Blanca tambi\u00e9n quiere alentar a m\u00e1s trabajadores a trabajar en el ecosistema de IA y orden\u00f3 el lanzamiento de un Recurso Nacional de Investigaci\u00f3n de IA para proporcionar informaci\u00f3n clave a estudiantes e investigadores de IA y acceso a asistencia t\u00e9cnica para peque\u00f1as empresas. Tambi\u00e9n dirigi\u00f3 la r\u00e1pida contrataci\u00f3n de profesionales de IA para el gobierno. <\/p>\n<\/div>\n

\n

La administraci\u00f3n Biden public\u00f3 por primera vez una Declaraci\u00f3n de Derechos de IA que describe un conjunto de principios que deben seguir los desarrolladores de modelos de IA. Posteriormente se convirtieron en una serie de Acuerdos entre la Casa Blanca y varios actores de la IA.<\/a>incluidos Meta, Google, OpenAI, Nvidia y Adobe.<\/p>\n<\/div>\n

\n

Pero una orden ejecutiva no es una ley permanente y, por lo general, solo dura mientras dure la administraci\u00f3n de Biden. Los legisladores todav\u00eda est\u00e1n discutiendo c\u00f3mo regular la IA, aunque algunos pol\u00edticos dijeron que quieren aprobar leyes sobre IA antes de fin de a\u00f1o<\/a>. <\/p>\n<\/div>\n

\n

Los observadores de la industria dijeron que la orden ejecutiva es al menos un paso adelante en el establecimiento de est\u00e1ndares en torno a la IA generativa.<\/p>\n<\/div>\n

\n

Navrina Singh, fundadora de Credo AI y miembro del Comit\u00e9 Asesor Nacional de Inteligencia Artificial, dijo que una orden ejecutiva es una fuerte se\u00f1al de que Estados Unidos se toma en serio la IA generativa.<\/p>\n<\/div>\n

\n

\u00abEs la medida correcta por ahora porque no podemos esperar que las pol\u00edticas sean perfectas desde el principio mientras todav\u00eda se debate la legislaci\u00f3n\u00bb, dijo Singh. \u00abCreo que esto realmente demuestra que la IA es una m\u00e1xima prioridad para el gobierno\u00bb.<\/p>\n<\/div>\n<\/div>\n


\n
Source link-37 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

El presidente Joe Biden firm\u00f3 una orden ejecutiva que establece reglas sobre la IA generativa, antes de cualquier legislaci\u00f3n proveniente de los legisladores. La orden tiene ocho objetivos: crear nuevos…<\/p>\n","protected":false},"author":1,"featured_media":862538,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[389,551,12692,24237,246,490,6365,51502,243,388,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/862537"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=862537"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/862537\/revisions"}],"predecessor-version":[{"id":862539,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/862537\/revisions\/862539"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/862538"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=862537"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=862537"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=862537"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}