Biden emite una amplia orden ejecutiva que aborda el riesgo de la IA, los deepfakes y la privacidad


Aurich Lawson | imágenes falsas

El lunes, el presidente Joe Biden emitió una orden ejecutiva sobre IA que describe las primeras regulaciones integrales del gobierno federal sobre sistemas de IA generativa. La orden incluye mandatos de prueba para modelos avanzados de IA para garantizar que no puedan usarse para crear armas, sugerencias para poner marcas de agua en los medios generados por IA y disposiciones que abordan la privacidad y el desplazamiento laboral.

En Estados Unidos, una orden ejecutiva permite al presidente gestionar y operar el gobierno federal. Utilizando su autoridad para establecer los términos de los contratos gubernamentales, Biden pretende influir en los estándares de IA estipulando que las agencias federales sólo deben celebrar contratos con empresas que cumplan con las regulaciones de IA recientemente delineadas por el gobierno. Este enfoque utiliza el poder adquisitivo del gobierno federal para impulsar el cumplimiento de los estándares recientemente establecidos.

Al cierre de esta edición del lunes, la Casa Blanca aún no había publicado el texto completo de la orden ejecutiva, pero a partir de la hoja informativa escrita por la administración y a través de los informes sobre los borradores de la orden de Politico y The New York Times, podemos transmitir una imagen de su contenido. Algunas partes de la orden reflejan posiciones especificadas por primera vez en las directrices de la «Declaración de Derechos de la IA» de 2022 de Biden, que cubrimos en octubre pasado.

En medio de los temores de daños existenciales a la IA que fueron noticia importante a principios de este año, la orden ejecutiva incluye un enfoque notable en la seguridad de la IA. Por primera vez, los desarrolladores de potentes sistemas de inteligencia artificial que representen riesgos para la seguridad nacional, la estabilidad económica o la salud pública deberán notificar al gobierno federal cuando entrenen un modelo. También tendrán que compartir los resultados de las pruebas de seguridad y otra información crítica con el gobierno de los EE. UU. de acuerdo con la Ley de Producción de Defensa antes de hacerlos públicos.

Además, el Instituto Nacional de Estándares y Tecnología (NIST) y el Departamento de Seguridad Nacional desarrollarán e implementarán estándares para las pruebas del «equipo rojo», con el objetivo de garantizar que los sistemas de IA sean seguros antes de su lanzamiento público. Implementar esos esfuerzos probablemente sea más fácil de decir que de hacer porque lo que constituye un «modelo básico» o un «riesgo» podría estar sujeto a una interpretación vaga.

La orden también sugiere, pero no exige, la colocación de marcas de agua en fotografías, vídeos y audio producidos por IA. Esto refleja la creciente preocupación por el potencial de desinformación y deepfakes generados por IA, particularmente en el contexto de la próxima campaña presidencial de 2024. Para garantizar comunicaciones precisas y libres de intromisiones de IA, la hoja informativa dice que las agencias federales desarrollarán y utilizarán herramientas para «facilitar a los estadounidenses saber que las comunicaciones que reciben de su gobierno son auténticas y dar ejemplo al sector privado». y gobiernos de todo el mundo.»

Según la orden, varias agencias deben establecer estándares de seguridad claros para el uso de IA. Por ejemplo, el Departamento de Salud y Servicios Humanos tiene la tarea de crear estándares de seguridad, mientras que el Departamento de Trabajo y el Consejo Económico Nacional deben estudiar el impacto de la IA en el mercado laboral y el posible desplazamiento laboral. Si bien la orden en sí no puede evitar la pérdida de empleos debido a los avances de la IA, la administración parece estar tomando medidas iniciales para comprender y posiblemente mitigar el impacto socioeconómico de la adopción de la IA. Según la hoja informativa, estos estudios tienen como objetivo informar futuras decisiones políticas que podrían ofrecer una red de seguridad para los trabajadores de las industrias con mayor probabilidad de verse afectadas por la IA.



Source link-49