{"id":739624,"date":"2023-07-21T18:17:26","date_gmt":"2023-07-21T18:17:26","guid":{"rendered":"https:\/\/magazineoffice.com\/las-principales-empresas-de-ia-visitan-la-casa-blanca-para-hacer-compromisos-de-seguridad-voluntarios\/"},"modified":"2023-07-21T18:17:30","modified_gmt":"2023-07-21T18:17:30","slug":"las-principales-empresas-de-ia-visitan-la-casa-blanca-para-hacer-compromisos-de-seguridad-voluntarios","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/las-principales-empresas-de-ia-visitan-la-casa-blanca-para-hacer-compromisos-de-seguridad-voluntarios\/","title":{"rendered":"Las principales empresas de IA visitan la Casa Blanca para hacer compromisos de seguridad ‘voluntarios’"},"content":{"rendered":"
\n<\/p>\n
Si bien la legislaci\u00f3n sustantiva de IA a\u00fan puede tardar a\u00f1os, la industria se est\u00e1 moviendo a la velocidad de la luz y muchos, incluida la Casa Blanca, est\u00e1n preocupados de que pueda dejarse llevar. Por lo tanto, la administraci\u00f3n de Biden ha recopilado \u00abcompromisos voluntarios\u00bb de siete de los mayores desarrolladores de inteligencia artificial para perseguir objetivos compartidos de seguridad y transparencia antes de una orden ejecutiva planificada.<\/p>\n
OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon son las empresas que participan en este acuerdo no vinculante y enviar\u00e1n representantes a la Casa Blanca para reunirse hoy con el presidente Biden.<\/p>\n
Para ser claros, aqu\u00ed no se propone ninguna regla o aplicaci\u00f3n: las pr\u00e1cticas acordadas son puramente voluntarias. Pero aunque ninguna agencia gubernamental responsabilizar\u00e1 a una empresa si elude algunos, es probable que tambi\u00e9n sea un asunto de dominio p\u00fablico.<\/p>\n
Aqu\u00ed est\u00e1 la lista de asistentes al concierto de la Casa Blanca:<\/p>\n
Sin subordinados, pero tampoco multimillonarios. (Y ninguna mujer.)<\/p>\n
Las siete compa\u00f1\u00edas (y probablemente otras que no recibieron el tratamiento de la alfombra roja pero querr\u00e1n participar) se han comprometido a lo siguiente:<\/p>\n
Si bien lo anterior es voluntario, uno puede imaginar f\u00e1cilmente que la amenaza de una orden ejecutiva (actualmente est\u00e1n \u201cdesarrollando\u201d una) est\u00e1 ah\u00ed para alentar el cumplimiento. Por ejemplo, si algunas empresas no permiten pruebas de seguridad externas de sus modelos antes del lanzamiento, el EO puede desarrollar<\/em> un p\u00e1rrafo que ordena a la FTC que observe de cerca los productos de IA que afirman una seguridad s\u00f3lida. (Una EO ya est\u00e1 en vigor pidiendo a las agencias que tengan cuidado con los sesgos en el desarrollo y uso de la IA).<\/p>\n La Casa Blanca est\u00e1 claramente ansiosa por salir adelante de esta pr\u00f3xima gran ola de tecnolog\u00eda, ya que las capacidades disruptivas de las redes sociales la tomaron desprevenida. El presidente y el vicepresidente se han reunido con l\u00edderes de la industria y han solicitado asesoramiento sobre una estrategia nacional de IA, adem\u00e1s de dedicar una gran cantidad de fondos a nuevos centros y programas de investigaci\u00f3n de IA. Por supuesto, el aparato nacional de ciencia e investigaci\u00f3n est\u00e1 muy por delante de ellos, como muestra este informe muy completo (aunque necesariamente un poco desactualizado) sobre desaf\u00edos y oportunidades de investigaci\u00f3n del DOE y National Labs.<\/p>\n<\/p><\/div>\n