Joe Biden quiere que se prueben los algoritmos del gobierno de EE. UU. para detectar posibles daños a los ciudadanos


«El marco permite un conjunto de requisitos vinculantes para que las agencias federales establezcan salvaguardas para el uso de la IA de modo que podamos aprovechar los beneficios y permitir que el público confíe en los servicios que brinda el gobierno federal», dice Jason Miller, subdirector de la OMB. para la gestión.

El borrador del memorando destaca ciertos usos de la IA en los que la tecnología puede dañar los derechos o la seguridad, incluida la atención médica, la vivienda y la aplicación de la ley, todas situaciones en las que los algoritmos han resultado en el pasado en discriminación o denegación de servicios.

Los ejemplos de posibles riesgos de seguridad mencionados en el borrador de la OMB incluyen la automatización de infraestructura crítica como represas y vehículos autónomos como el robotaxis Cruise que fueron cerrados la semana pasada en California y están bajo investigación por parte de los reguladores federales y estatales después de que un peatón fue atropellado por un vehículo. fue arrastrado 20 pies. Los ejemplos de cómo la IA podría violar los derechos de los ciudadanos en el borrador del memorando incluyen vigilancia policial predictiva, IA que puede bloquear el discurso protegido, software de detección de plagio o emociones, algoritmos de selección de inquilinos y sistemas que pueden afectar la inmigración o la custodia de los hijos.

Según la OMB, las agencias federales utilizan actualmente más de 700 algoritmos, aunque los inventarios proporcionados por las agencias federales están incompletos. Miller dice que el borrador del memorando requiere que las agencias federales compartan más sobre los algoritmos que utilizan. «Nuestra expectativa es que en las próximas semanas y meses mejoremos la capacidad de las agencias para identificar e informar sobre sus casos de uso», dice.

La vicepresidenta Kamala Harris mencionó el memorando de la OMB junto con otras iniciativas responsables de IA en declaraciones hoy en la Embajada de Estados Unidos en Londres, un viaje realizado para la Cumbre de Seguridad de IA del Reino Unido esta semana. Dijo que si bien algunas voces en la formulación de políticas de IA se centran en riesgos catastróficos, como el papel que la IA puede desempeñar algún día en los ataques cibernéticos o la creación de armas biológicas, la IA ya está amplificando los prejuicios y la desinformación y afectando a individuos y comunidades a diario.

Merve Hickok, autora de un libro de próxima aparición sobre políticas de adquisición de IA e investigadora de la Universidad de Michigan, celebra que el memorando de la OMB requiera que las agencias justifiquen su uso de la IA y asignen a personas específicas la responsabilidad de la tecnología. Esa es una forma potencialmente efectiva de garantizar que la IA no se incluya en todos los programas gubernamentales, afirma.

Pero teme que la provisión de exenciones podría socavar esos mecanismos. “Me preocuparía si empezáramos a ver que las agencias utilizan ampliamente esa exención, especialmente las fuerzas del orden, la seguridad nacional y la vigilancia”, dice. «Una vez que obtengan la exención, ésta puede ser indefinida».



Source link-46