La política tecnológica de EE. UU. debe seguir el ritmo de la innovación en IA


A medida que la innovación en inteligencia artificial (IA) supera los ciclos de noticias y capta la atención del público, un marco para su desarrollo y uso responsable y ético se ha vuelto cada vez más crítico para garantizar que esta ola tecnológica sin precedentes alcance su máximo potencial como una contribución positiva al progreso económico y social. .

La Unión Europea ya ha estado trabajando para promulgar leyes en torno a la IA responsable; Compartí mis pensamientos sobre esas iniciativas hace casi dos años. Entonces, la Ley de IA, como se la conoce, era “un enfoque objetivo y mesurado de la innovación y las consideraciones sociales”. Hoy, los líderes de las empresas de tecnología y el gobierno de los Estados Unidos se unen para trazar una visión unificada de la IA responsable.

El poder de la IA generativa

El lanzamiento de OpenAI de ChatGPT capturó la imaginación de los innovadores tecnológicos, los líderes empresariales y el público el año pasado, y explotó el interés y la comprensión de los consumidores sobre las capacidades de la IA generativa. Sin embargo, con la generalización de la inteligencia artificial, incluso como un tema político, y la propensión de los humanos a experimentar y probar sistemas, la capacidad de desinformación, el impacto en la privacidad y el riesgo para la seguridad cibernética y el comportamiento fraudulento corren el riesgo de convertirse rápidamente en una ocurrencia tardía.

En un esfuerzo inicial para abordar estos desafíos potenciales y garantizar una innovación de IA responsable que proteja los derechos y la seguridad de los estadounidenses, la Casa Blanca ha anunciado nuevas acciones para promover la IA responsable.

En una hoja informativa publicada por la Casa Blanca la semana pasada, la administración Biden-Harris describió tres acciones para “promover la innovación estadounidense responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de las personas”. Éstas incluyen:

  • Nuevas inversiones para impulsar la I+D estadounidense responsable en IA.
  • Evaluaciones públicas de los sistemas de IA generativa existentes.
  • Políticas para garantizar que el gobierno de los EE. UU. predique con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA.

Nuevas inversiones

Con respecto a las nuevas inversiones, los $140 millones de dólares de la Fundación Nacional de Ciencias para lanzar siete nuevos Institutos Nacionales de Investigación de IA palidecen en comparación con lo que han recaudado las empresas privadas.

Si bien es direccionalmente correcto, la inversión del gobierno de los EE. UU. en IA es microscópica en general en comparación con las inversiones gubernamentales de otros países, a saber, China, que comenzó a invertir en 2017. Existe una oportunidad inmediata para amplificar el impacto de la inversión a través de asociaciones académicas para el desarrollo de la fuerza laboral y la investigación. El gobierno debe financiar los centros de IA junto con las instituciones académicas y corporativas que ya están a la vanguardia de la investigación y el desarrollo de IA, impulsando la innovación y creando nuevas oportunidades para las empresas con el poder de la IA.

Las colaboraciones entre los centros de IA y las principales instituciones académicas, como Schwarzman College del MIT y el Instituto de IA experimental de Northeastern, ayudan a cerrar la brecha entre la teoría y la aplicación práctica al reunir a expertos académicos, de la industria y del gobierno para colaborar en investigaciones de vanguardia y proyectos de desarrollo que tienen aplicaciones en el mundo real. Al asociarse con las principales empresas, estos centros pueden ayudar a las empresas a integrar mejor la IA en sus operaciones, mejorando la eficiencia, el ahorro de costos y mejores resultados para el consumidor.

Además, estos centros ayudan a educar a la próxima generación de expertos en IA al brindar a los estudiantes acceso a tecnología de punta, experiencia práctica con proyectos del mundo real y tutoría de líderes de la industria. Al adoptar un enfoque proactivo y colaborativo de la IA, el gobierno de EE. UU. puede ayudar a dar forma a un futuro en el que la IA mejore, en lugar de reemplazar, el trabajo humano. Como resultado, todos los miembros de la sociedad pueden beneficiarse de las oportunidades creadas por esta poderosa tecnología.

Evaluaciones públicas

La evaluación del modelo es fundamental para garantizar que los modelos de IA sean precisos, confiables y libres de sesgos, lo que es esencial para una implementación exitosa en aplicaciones del mundo real. Por ejemplo, imagine un caso de uso de planificación urbana en el que la IA generativa se entrena en ciudades marcadas en rojo con poblaciones pobres históricamente subrepresentadas. Desafortunadamente, solo conducirá a más de lo mismo. Lo mismo ocurre con el sesgo en los préstamos, ya que más instituciones financieras están utilizando algoritmos de inteligencia artificial para tomar decisiones de préstamos.

Si estos algoritmos se entrenan con datos discriminatorios contra ciertos grupos demográficos, pueden negar injustamente préstamos a esos grupos, lo que genera disparidades económicas y sociales. Aunque estos son solo algunos ejemplos de sesgo en la IA, esto debe ser una prioridad independientemente de la rapidez con la que se desarrollen e implementen nuevas tecnologías y técnicas de IA.

Para combatir el sesgo en la IA, la administración ha anunciado una nueva oportunidad para la evaluación de modelos en DEFCON 31 AI Village, un foro para que investigadores, profesionales y entusiastas se reúnan y exploren los últimos avances en inteligencia artificial y aprendizaje automático. La evaluación del modelo es una iniciativa de colaboración con algunos de los actores clave en el espacio, incluidos Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI y Stability AI, aprovechando una plataforma ofrecida por Scale AI.

Además, medirá cómo los modelos se alinean con los principios y prácticas descritos en el Plan para una Declaración de Derechos de IA de la administración Biden-Harris y el Marco de Gestión de Riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST). Este es un desarrollo positivo en el que la administración se relaciona directamente con las empresas y capitaliza la experiencia de los líderes técnicos en el espacio, que se han convertido en laboratorios corporativos de IA.

Políticas gubernamentales

Con respecto a la tercera acción con respecto a las políticas para garantizar que el gobierno de los EE. UU. lidere con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA, la Oficina de Administración y Presupuesto debe redactar una guía de políticas sobre el uso de los sistemas de IA por parte del gobierno de los EE. UU. para comentario público. . Una vez más, no se han dado fechas ni detalles para estas políticas, pero se espera que una orden ejecutiva sobre equidad racial emitida a principios de este año esté a la vanguardia.

La orden ejecutiva incluye una disposición que ordena a las agencias gubernamentales que utilicen IA y sistemas automatizados de una manera que promueva la equidad. Para que estas políticas tengan un impacto significativo, deben incluir incentivos y repercusiones; no pueden ser meramente una guía opcional. Por ejemplo, los estándares NIST para la seguridad son requisitos efectivos para la implementación por parte de la mayoría de los organismos gubernamentales. No adherirse a ellos es, como mínimo, increíblemente vergonzoso para las personas involucradas y motivo de acción personal en algunas partes del gobierno. Las políticas gubernamentales de IA, como parte del NIST o de otro modo, deben ser comparables para ser efectivas.

Además, el costo de adherirse a dichas regulaciones no debe ser un obstáculo para la innovación impulsada por las empresas emergentes. Por ejemplo, ¿qué se puede lograr en un marco cuyo costo para el cumplimiento normativo aumenta con el tamaño de la empresa? Finalmente, a medida que el gobierno se convierte en un comprador importante de plataformas y herramientas de IA, es primordial que sus políticas se conviertan en el principio rector para construir tales herramientas. Haga que el cumplimiento de esta guía sea un requisito literal, o incluso efectivo, para la compra (por ejemplo, el estándar de seguridad FedRamp), y estas políticas pueden mover la aguja.

A medida que los sistemas de IA generativa se vuelven más poderosos y generalizados, es esencial que todas las partes interesadas, incluidos los fundadores, operadores, inversores, tecnólogos, consumidores y reguladores, sean reflexivos e intencionales al buscar y comprometerse con estas tecnologías. Si bien la IA generativa y la IA en términos más generales tienen el potencial de revolucionar las industrias y crear nuevas oportunidades, también plantea desafíos importantes, particularmente en torno a cuestiones de sesgo, privacidad y consideraciones éticas.

Por lo tanto, todas las partes interesadas deben priorizar la transparencia, la rendición de cuentas y la colaboración para garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa. Esto significa invertir en investigación y desarrollo éticos de IA, comprometerse con diversas perspectivas y comunidades, y establecer pautas y regulaciones claras para desarrollar e implementar estas tecnologías.



Source link-48