La Casa Blanca pone nuevas barreras al uso gubernamental de la IA


El gobierno de Estados Unidos emitió el jueves nuevas reglas que exigen más cautela y transparencia por parte de las agencias federales que utilizan inteligencia artificial, diciendo que son necesarias para proteger al público a medida que la IA avanza rápidamente. Pero la nueva política también contiene disposiciones para fomentar la innovación en IA en las agencias gubernamentales cuando la tecnología pueda usarse para el bien público.

Estados Unidos espera emerger como un líder internacional con su nuevo régimen de IA gubernamental. La vicepresidenta Kamala Harris dijo durante una rueda de prensa previa al anuncio que la administración planea que las políticas “sirvan como modelo para la acción global”. Dijo que Estados Unidos “seguirá pidiendo a todas las naciones que sigan nuestro ejemplo y antepongan el interés público cuando se trata del uso gubernamental de la IA”.

La nueva política de la Oficina de Gestión y Presupuesto de la Casa Blanca guiará el uso de la IA en todo el gobierno federal. Requiere más transparencia en cuanto a cómo el gobierno utiliza la IA y también exige un mayor desarrollo de la tecnología dentro de las agencias federales. La política considera que la administración intenta lograr un equilibrio entre la mitigación de los riesgos derivados de un uso más profundo de la IA (cuyo alcance se desconoce) y el uso de herramientas de IA para resolver amenazas existenciales como el cambio climático y las enfermedades.

El anuncio se suma a una serie de medidas tomadas por la administración Biden para adoptar y restringir la IA. En octubre, el presidente Biden firmó una amplia orden ejecutiva sobre IA que fomentaría la expansión de la tecnología de IA por parte del gobierno, pero también exige que quienes fabrican grandes modelos de IA proporcionen al gobierno información sobre sus actividades, en interés de la seguridad nacional.

En noviembre, Estados Unidos se unió al Reino Unido, China y miembros de la UE para firmar una declaración que reconocía los peligros de los rápidos avances de la IA, pero también pedía colaboración internacional. Harris reveló esa misma semana una declaración no vinculante sobre el uso militar de la IA, firmada por 31 naciones. Establece barreras de seguridad rudimentarias y exige la desactivación de sistemas que participan en «comportamientos no intencionados».

La nueva política para el uso de IA por parte del gobierno de EE. UU. anunciada el jueves pide a las agencias que tomen varias medidas para evitar consecuencias no deseadas de los despliegues de IA. Para empezar, las agencias deben verificar que las herramientas de inteligencia artificial que utilizan no pongan en riesgo a los estadounidenses. Por ejemplo, para que el Departamento de Asuntos de Veteranos utilice IA en sus hospitales debe verificar que la tecnología no proporcione diagnósticos con prejuicios raciales. Las investigaciones han descubierto que los sistemas de inteligencia artificial y otros algoritmos utilizados para informar el diagnóstico o decidir qué pacientes reciben atención pueden reforzar patrones históricos de discriminación.

Si una agencia no puede garantizar tales salvaguardas, debe dejar de utilizar el sistema de IA o justificar su uso continuo. Las agencias estadounidenses tienen como fecha límite el 1 de diciembre para cumplir con estos nuevos requisitos.

La política también exige más transparencia sobre los sistemas de IA del gobierno, exigiendo a las agencias que publiquen modelos, datos y códigos de IA de propiedad gubernamental, siempre que la divulgación de dicha información no represente una amenaza para el público o el gobierno. Las agencias deben informar públicamente cada año cómo utilizan la IA, los riesgos potenciales que plantean los sistemas y cómo se mitigan esos riesgos.

Y las nuevas reglas también requieren que las agencias federales refuercen su experiencia en IA, obligando a cada una a nombrar un director de IA para supervisar toda la IA utilizada dentro de esa agencia. Es un papel que se centra en promover la innovación en IA y también en vigilar sus peligros.

Los funcionarios dicen que los cambios también eliminarán algunas barreras al uso de la IA en las agencias federales, una medida que puede facilitar una experimentación más responsable con la IA. La tecnología tiene el potencial de ayudar a las agencias a revisar los daños causados ​​por desastres naturales, pronosticar condiciones climáticas extremas, mapear la propagación de enfermedades y controlar el tráfico aéreo.

Países de todo el mundo están tomando medidas para regular la IA. La UE votó en diciembre para aprobar su Ley de IA, una medida que rige la creación y el uso de tecnologías de IA, y la adoptó formalmente a principios de este mes. China también está trabajando en una regulación integral de la IA.



Source link-46