Se aprueba la Ley de IA de la UE: ahora viene la espera


Las tres ramas de la Unión Europea acordado provisionalmente sobre su histórica IA regulación, allanando el camino para que el bloque económico prohíba ciertos usos de la tecnología y exija transparencia a los proveedores. Pero a pesar de las advertencias de algunos líderes mundiales, los cambios que requerirá de las empresas de IA siguen sin estar claros y, potencialmente, están muy lejos.

Propuesta por primera vez en 2021, la Ley de IA aún no ha sido aprobada en su totalidad. Los compromisos de último momento, muy debatidos, suavizaron algunas de sus amenazas regulatorias más estrictas. Y es probable que la aplicación de la ley no comience hasta dentro de años. «A muy corto plazo, el compromiso sobre la Ley de IA de la UE no tendrá mucho efecto directo en los diseñadores de IA establecidos con sede en los EE. UU. porque, según sus términos, probablemente no entrará en vigor hasta 2025», dice Paul Barrett. , subdirector del Centro Stern para Empresas y Derechos Humanos de la Universidad de Nueva York.

Entonces, por ahora, Barrett dice que los principales actores de la IA como OpenAI, Microsoft, Google y Meta probablemente continuarán luchando por el dominio, particularmente mientras navegan por la incertidumbre regulatoria en los EE. UU.

La Ley de IA comenzó antes de la explosión de las herramientas de IA de propósito general (GPAI), como el modelo de lenguaje grande GPT-4 de OpenAI, y regularlas se convirtió en una notablemente complicado punto de fricción en las discusiones de último momento. La ley divide sus reglas sobre el nivel de riesgo que un sistema de IA tiene para la sociedad, o como dijo la UE en un declaración«cuanto mayor es el riesgo, más estrictas son las reglas».

Pero a algunos Estados miembros les preocupaba que este rigor pudiera convertir a la UE en un mercado poco atractivo para la IA. Francia, Alemania e Italia presionaron para suavizar las restricciones a la GPAI durante las negociaciones. Obtuvieron compromisos, incluida la limitación de lo que pueden considerarse sistemas de “alto riesgo”, que luego estarían sujetos a algunas de las reglas más estrictas. En lugar de clasificar todas las GPAI como de alto riesgo, habrá un sistema de dos niveles y excepciones policiales para usos totalmente prohibidos de la IA, como la identificación biométrica remota.

Esto todavía no ha satisfecho a todos los críticos. El presidente francés, Emmanuel Macron. atacó las reglas, diciendo que la Ley de IA crea un entorno regulatorio estricto que obstaculiza la innovación. Barrett dijo que algunas nuevas empresas europeas de IA podrían tener dificultades para recaudar capital con las normas actuales, lo que da una ventaja a las empresas estadounidenses. Las empresas fuera de Europa pueden incluso optar por evitar establecerse en la región o bloquear el acceso a las plataformas para no ser multadas por infringir las reglas, un riesgo potencial que Europa también ha enfrentado en la industria tecnológica no relacionada con la inteligencia artificial, siguiendo las regulaciones. como la Ley de Mercados Digitales y la Ley de Servicios Digitales.

Pero las reglas también eluden algunas de las cuestiones más controvertidas en torno a la IA generativa.

Los modelos de IA entrenados con datos disponibles públicamente, pero confidenciales y potencialmente protegidos por derechos de autor, se han convertido en un gran punto de discordia para las organizaciones, por ejemplo. Sin embargo, las reglas provisionales no crean nuevas leyes sobre la recopilación de datos. Si bien la UE fue pionera en leyes de protección de datos a través del GDPR, sus reglas de IA no prohíben a las empresas recopilar información, más allá de exigir que sigan las pautas del GDPR.

“Según las reglas, es posible que las empresas tengan que proporcionar un resumen de transparencia o etiquetas nutricionales con datos”, dice Susan Ariel Aaronson, directora del Digital Trade and Data Governance Hub y profesora investigadora de asuntos internacionales en la Universidad George Washington. «Pero en realidad no va a cambiar el comportamiento de las empresas en torno a los datos».

Aaronson señala que la Ley de IA aún no ha aclarado cómo las empresas deben tratar el material protegido por derechos de autor que forma parte de los datos de entrenamiento del modelo, más allá de afirmar que los desarrolladores deben seguir las leyes de derechos de autor existentes (que dejan muchas áreas grises en torno a la IA). Por lo tanto, no ofrece ningún incentivo para que los desarrolladores de modelos de IA eviten el uso de datos protegidos por derechos de autor.

La Ley de IA tampoco aplicará sus multas potencialmente severas a los desarrolladores, investigadores y empresas más pequeñas de código abierto que trabajan más abajo en la cadena de valor, una decisión que ha sido elogiada por los desarrolladores de código abierto en el campo. Shelley McKinley, directora jurídica de GitHub, dijo que es «un avance positivo para la innovación abierta y los desarrolladores que trabajan para ayudar a resolver algunos de los problemas más apremiantes de la sociedad». (GitHub, un popular centro de desarrollo de código abierto, es una subsidiaria de Microsoft).

Los observadores creen que el impacto más concreto podría ser presionar a otras figuras políticas, en particular a los responsables políticos estadounidenses, para que actúen más rápido. No es el primer marco regulatorio importante para la IA: en julio, China aprobó directrices para empresas que quieran vender servicios de IA al público. Pero el proceso de desarrollo relativamente transparente y muy debatido de la UE ha dado a la industria de la IA una idea de qué esperar. Si bien la Ley de IA aún puede cambiar, Aaronson dijo que al menos muestra que la UE ha escuchado y respondido a las preocupaciones del público en torno a la tecnología.

Lothar Determann, socio de privacidad de datos y tecnología de la información del bufete de abogados Baker McKenzie, dice que el hecho de que se base en reglas de datos existentes también podría alentar a los gobiernos a evaluar las regulaciones que tienen vigentes. Y Blake Brannon, director de estrategia de la plataforma de privacidad de datos OneTrust, dijo que las empresas de inteligencia artificial más maduras establecen pautas de protección de la privacidad de conformidad con leyes como GDPR y en anticipación de políticas más estrictas. Dijo que, dependiendo de la empresa, la Ley de IA es “un complemento adicional” a las estrategias que ya existen.

Estados Unidos, por el contrario, no ha logrado en gran medida hacer despegar la regulación de la IA, a pesar de ser el hogar de importantes actores como Meta, Amazon, Adobe, Google, Nvidia y OpenAI. Su mayor medida hasta ahora ha sido una administración Biden. orden ejecutiva ordenar a las agencias gubernamentales que desarrollen estándares de seguridad y aprovechen acuerdos voluntarios y no vinculantes firmado por grandes jugadores de IA. Los pocos proyectos de ley presentados en el Senado han girado en su mayoría en torno a deepfakes y marcas de agua, y los foros de IA a puertas cerradas celebrados por el senador Chuck Schumer (D-NY) han ofrecido poca claridad sobre la dirección del gobierno en la gestión de la tecnología.

Ahora, los responsables políticos pueden analizar el enfoque de la UE y aprender de él.

Esto no significa que Estados Unidos adoptará el mismo enfoque basado en el riesgo, pero podría buscar ampliar las reglas de transparencia de datos o permitir que los modelos GPAI sean un poco más indulgentes.

Navrina Singh, fundadora de Credo AI y miembro del comité asesor nacional de IA, cree que si bien la Ley de IA es un gran momento para la gobernanza de la IA, las cosas no cambiarán rápidamente y todavía queda mucho trabajo por delante.

«Los reguladores de ambos lados del Atlántico deberían centrarse en ayudar a las organizaciones de todos los tamaños en el diseño, desarrollo y despliegue seguros de IA que sean a la vez transparentes y responsables», dice Singh. El borde en una oracion. Añade que todavía faltan estándares y procesos de evaluación comparativa, particularmente en materia de transparencia.

Si bien la Ley de IA no está finalizada, una gran mayoría de países de la UE reconocieron que esa es la dirección que quieren tomar. La ley no regula retroactivamente los modelos o aplicaciones existentes, pero las versiones futuras de GPT de OpenAI, Llama de Meta o Gemini de Google deberán tener en cuenta los requisitos de transparencia establecidos por la UE. Puede que no produzca cambios dramáticos de la noche a la mañana, pero demuestra cuál es la postura de la UE respecto de la IA.



Source link-37