La Casa Blanca establece amplias directrices sobre IA para el gobierno federal


Han pasado cinco meses desde que el presidente Joe Biden firmó una orden ejecutiva (EO) para abordar los rápidos avances en inteligencia artificial. La Casa Blanca está dando hoy un paso más en la implementación de la EO con una política que tiene como objetivo regular el uso de la IA por parte del gobierno federal. Las salvaguardias que las agencias deben implementar incluyen, entre otras cosas, formas de mitigar el riesgo de sesgo algorítmico.

«Creo que todos los líderes del gobierno, la sociedad civil y el sector privado tienen el deber moral, ético y social de garantizar que la inteligencia artificial se adopte y avance de una manera que proteja al público de posibles daños y al mismo tiempo garantice que todos puedan disfrutar. sus beneficios», dijo la vicepresidenta Kamala Harris a los periodistas en una conferencia de prensa.

Harris anunció tres requisitos vinculantes bajo una nueva política de la Oficina de Administración y Presupuesto (OMB). En primer lugar, las agencias deberán garantizar que cualquier herramienta de inteligencia artificial que utilicen «no ponga en peligro los derechos y la seguridad del pueblo estadounidense». Tienen hasta el 1 de diciembre para asegurarse de que cuentan con «salvaguardias concretas» para garantizar que los sistemas de inteligencia artificial que emplean no afecten la seguridad o los derechos de los estadounidenses. De lo contrario, la agencia tendrá que dejar de utilizar un producto de IA a menos que sus líderes puedan justificar que eliminar el sistema tendría un impacto «inaceptable» en las operaciones críticas.

Impacto en los derechos y la seguridad de los estadounidenses

Según la política, se considera que un sistema de IA afecta la seguridad si «se usa o se espera que se use, en condiciones del mundo real, para controlar o influir significativamente en los resultados de» ciertas actividades y decisiones. Entre ellos se incluyen el mantenimiento de la integridad electoral y la infraestructura electoral; controlar funciones críticas de seguridad de infraestructura como sistemas de agua, servicios de emergencia y redes eléctricas; vehículos autónomos; y operar los movimientos físicos de robots en «un lugar de trabajo, escuela, vivienda, transporte, entorno médico o policial».

A menos que cuenten con salvaguardias adecuadas o puedan justificar su uso de otro modo, las agencias también tendrán que deshacerse de los sistemas de IA que infringen los derechos de los estadounidenses. Los propósitos que la política supone que impactan los derechos definidos incluyen vigilancia policial predictiva; monitoreo de redes sociales para las fuerzas del orden; detectar plagio en las escuelas; bloquear o limitar la expresión protegida; detectar o medir emociones y pensamientos humanos; evaluación previa al empleo; y «replicar la imagen o la voz de una persona sin consentimiento expreso».

Cuando se trata de IA generativa, la política estipula que las agencias deben evaluar los beneficios potenciales. Todos también deben «establecer salvaguardias y mecanismos de supervisión adecuados que permitan el uso de IA generativa en la agencia sin representar un riesgo indebido».

Requisitos de transparencia

El segundo requisito obligará a las agencias a ser transparentes sobre los sistemas de inteligencia artificial que utilizan. «Hoy, el presidente Biden y yo exigimos que cada año las agencias gubernamentales de EE. UU. publiquen en línea una lista de sus sistemas de inteligencia artificial, una evaluación de los riesgos que esos sistemas podrían plantear y cómo se están gestionando esos riesgos», dijo Harris.

Como parte de este esfuerzo, las agencias deberán publicar códigos, modelos y datos de IA de propiedad gubernamental, siempre que hacerlo no perjudique al público ni a las operaciones gubernamentales. Si una agencia no puede revelar casos de uso específicos de IA por razones de sensibilidad, igualmente tendrá que informar métricas.

La vicepresidenta Kamala Harris pronuncia un discurso durante un evento de campaña con el presidente Joe Biden en Raleigh, Carolina del Norte, el martes 26 de marzo de 2024. (Foto AP/Stephanie Scarbrough)

ASSOCIATED PRESS

Por último, pero no menos importante, las agencias federales necesitarán una supervisión interna de su uso de la IA. Eso incluye que cada departamento designe a un director de IA para supervisar todo el uso de la IA por parte de una agencia. «Esto es para garantizar que la IA se utilice de manera responsable, entendiendo que debemos tener líderes de alto nivel en todo nuestro gobierno que tengan la tarea específica de supervisar la adopción y el uso de la IA», señaló Harris. Muchas agencias también necesitarán contar con juntas de gobernanza de IA antes del 27 de mayo.

El vicepresidente añadió que figuras destacadas de los sectores público y privado (incluidos líderes de derechos civiles e informáticos) ayudaron a dar forma a la política junto con líderes empresariales y juristas.

La OMB sugiere que, al adoptar las salvaguardias, la Administración de Seguridad en el Transporte podría tener que permitir que los viajeros de las aerolíneas opten por no someterse a escaneos de reconocimiento facial sin perder su lugar en la fila o sufrir un retraso. También sugiere que debería haber supervisión humana sobre aspectos como la detección de fraudes mediante IA y las decisiones de diagnóstico en el sistema federal de salud.

Como se puede imaginar, las agencias gubernamentales ya están utilizando sistemas de inteligencia artificial de diversas formas. La Administración Nacional Oceánica y Atmosférica está trabajando en modelos de inteligencia artificial para ayudar a pronosticar con mayor precisión condiciones climáticas extremas, inundaciones e incendios forestales, mientras que la Administración Federal de Aviación está utilizando un sistema para ayudar a gestionar el tráfico aéreo en las principales áreas metropolitanas para mejorar el tiempo de viaje.

«La IA no sólo presenta riesgos, sino también una tremenda oportunidad para mejorar los servicios públicos y avanzar en desafíos sociales como abordar el cambio climático, mejorar la salud pública y promover oportunidades económicas equitativas», dijo a los periodistas la directora de la OMB, Shalanda Young. «Cuando se utiliza y supervisa de manera responsable, la IA puede ayudar a las agencias a reducir los tiempos de espera para los servicios gubernamentales críticos para mejorar la precisión y ampliar el acceso a los servicios públicos esenciales».

Esta política es la última de una serie de esfuerzos para regular el ámbito de rápida evolución de la IA. Si bien la Unión Europea ha aprobado un amplio conjunto de normas para el uso de la IA en el bloque y hay proyectos de ley federales en tramitación, los esfuerzos para regular la IA en Estados Unidos han adoptado un enfoque más bien fragmentado a nivel estatal. Este mes, Utah promulgó una ley para proteger a los consumidores del fraude de IA. En Tennessee, la Ley de Seguridad de Imagen y Voz para Garantizar la Semejanza (también conocida como Ley Elvis, en serio) es un intento de proteger a los músicos de los deepfakes, es decir, de la clonación de sus voces sin permiso.



Source link-47