La Casa Blanca ya sabe cómo hacer que la IA sea más segura


En segundo lugar, podría instruir a cualquier agencia federal que adquiera un sistema de IA que tenga el potencial de «impactar significativamente [our] derechos, oportunidades o acceso a recursos o servicios críticos” para exigir que el sistema cumpla con estas prácticas y que los proveedores proporcionen evidencia de este cumplimiento. Esto reconoce el poder del gobierno federal como cliente para dar forma a las prácticas comerciales. Después de todo, es el empleador más grande del país y podría usar su poder adquisitivo para dictar las mejores prácticas para los algoritmos que se usan, por ejemplo, para evaluar y seleccionar candidatos para puestos de trabajo.

En tercer lugar, la orden ejecutiva podría exigir que cualquiera que tome dólares federales (incluidas las entidades estatales y locales) se asegure de que los sistemas de inteligencia artificial que utilizan cumplan con estas prácticas. Esto reconoce el importante papel de la inversión federal en los estados y localidades. Por ejemplo, AI ha estado implicada en muchos componentes del sistema de justicia penal, incluida la vigilancia policial predictiva, la vigilancia, el encarcelamiento previo al juicio, la sentencia y la libertad condicional. Aunque la mayoría de las prácticas de aplicación de la ley son locales, el Departamento de Justicia ofrece subvenciones federales a las fuerzas del orden estatales y locales y podría imponer condiciones a estos fondos estipulando cómo usar la tecnología.

Finalmente, esta orden ejecutiva podría ordenar a las agencias con autoridad reguladora que actualicen y amplíen su elaboración de reglas a procesos dentro de su jurisdicción que incluyan IA. Ya se están realizando algunos esfuerzos iniciales para regular las entidades que usan IA con dispositivos médicos, algoritmos de contratación y calificación crediticia, y estas iniciativas podrían expandirse aún más. Los sistemas de vigilancia de los trabajadores y de valoración de la propiedad son solo dos ejemplos de áreas que se beneficiarían de este tipo de acción regulatoria.

Por supuesto, es probable que el régimen de prueba y monitoreo de los sistemas de IA que he descrito aquí provoque una variedad de preocupaciones. Algunos pueden argumentar, por ejemplo, que otros países nos superarán si disminuimos la velocidad para implementar tales medidas de protección. Pero otros países están ocupados aprobando sus propias leyes que imponen amplias restricciones a los sistemas de inteligencia artificial, y cualquier empresa estadounidense que busque operar en estos países deberá cumplir con sus reglas. La UE está a punto de aprobar una Ley de IA expansiva que incluye muchas de las disposiciones que describí anteriormente, e incluso China está imponiendo límites a los sistemas de IA desplegados comercialmente que van mucho más allá de lo que actualmente estamos dispuestos a considerar.

Otros pueden expresar su preocupación de que este amplio conjunto de requisitos pueda ser difícil de cumplir para una pequeña empresa. Esto podría abordarse vinculando los requisitos con el grado de impacto: una pieza de software que puede afectar el sustento de millones debe ser examinada a fondo, independientemente de cuán grande o pequeño sea el desarrollador. Un sistema de IA que las personas usan con fines recreativos no debería estar sujeto a las mismas restricciones y restricciones.

También es probable que haya preocupaciones acerca de si estos requisitos son prácticos. Una vez más, es importante no subestimar el poder del gobierno federal como creador de mercado. Una orden ejecutiva que exige marcos de prueba y validación proporcionará incentivos para las empresas que quieran traducir las mejores prácticas en regímenes de prueba comercial viables. El sector de la IA responsable ya se está llenando de firmas que brindan servicios de evaluación y auditoría algorítmica, consorcios de la industria que emiten pautas detalladas que se espera que cumplan los proveedores y grandes firmas de consultoría que ofrecen orientación a sus clientes. Y entidades independientes sin fines de lucro como Data and Society (descargo de responsabilidad: formo parte de su directorio) han establecido laboratorios completos para desarrollar herramientas que evalúan cómo los sistemas de IA afectarán a diferentes poblaciones.

Hicimos la investigación, construimos los sistemas e identificamos los daños. Existen formas establecidas de asegurarnos de que la tecnología que construimos e implementamos pueda beneficiarnos a todos mientras reduce los daños para aquellos que ya están siendo golpeados por una sociedad profundamente desigual. El tiempo de estudiar ha terminado, ahora la Casa Blanca necesita emitir una orden ejecutiva y tomar medidas.


Opinión CABLEADA publica artículos de colaboradores externos que representan una amplia gama de puntos de vista. Leer más opiniones aquí. Envíe un artículo de opinión en [email protected].



Source link-46