Por qué fue tan difícil aprobar la Ley de IA


Cuando los legisladores europeos alcanzaron un acuerdo provisional sobre reglas históricas de inteligencia artificial la semana pasada tuvieron motivos para celebrar.

Se alcanza la Ley de IA de la UE un clímax tan esperado el viernes después no sólo de dos años de amplia discusión sino de un debate “maratoniano” de tres días entre la Comisión Europea, el Parlamento Europeo y los estados miembros de la UE para limar asperezas. Se retiraron las noches en vela. Los contenedores estaban repletos de los restos de café, bebidas energéticas y snacks azucarados. Era el tipo de ambiente que uno esperaría de estudiantes preparándose para los exámenes finales, no de legisladores trabajando en una legislación que podría establecer un modelo para la regulación global de la IA. El caos se debió en gran medida a dos temas polémicos que amenazaban con descarrilar toda la negociación: el reconocimiento facial y los poderosos modelos de “base”.

Cuando se propuso por primera vez la Ley de IA en abril de 2021, tenía como objetivo combatir “nuevos riesgos o consecuencias negativas para los individuos o la sociedad” que la inteligencia artificial podría provocar. La ley se centró en herramientas que ya se están implementando en campos como la policía, la contratación laboral y la educación. Pero si bien la intención general del proyecto de ley no cambió, la tecnología de inteligencia artificial hizo – y rápidamente. Las reglas propuestas no estaban bien equipadas para manejar sistemas de propósito general ampliamente denominados modelos básicos, como la tecnología subyacente. El explosivamente popular ChatGPT de OpenAIque se lanzó en noviembre de 2022.

Gran parte del retraso de último minuto se debió a que los formuladores de políticas se esforzaron por garantizar que estas nuevas tecnologías de inteligencia artificial, así como otras futuras aún no desarrolladas, entraran dentro del alcance de la legislación. En lugar de simplemente regular cada área en la que podrían aparecer (una lista que incluye automóviles, juguetes, dispositivos médicos y mucho más), la ley utilizó un sistema de niveles que clasifica las aplicaciones de IA según el riesgo. Los sistemas de IA de “alto riesgo” que podrían afectar la seguridad o los derechos fundamentales fueron sometidos a las restricciones regulatorias más onerosas. Además, los sistemas de IA de uso general (GPAI), como los modelos GPT de OpenAI, enfrentaban regulaciones adicionales. Había mucho en juego en esa designación y, en consecuencia, el debate al respecto fue feroz.

“En un momento, parecía que las tensiones sobre cómo regular la GPAI podrían descarrilar todo el proceso de negociación”, dice Daniel Leufer, analista senior de políticas de Access Now, una organización digital de derechos humanos. «Hubo un gran impulso por parte de Francia, Alemania e Italia para excluir completamente estos sistemas de cualquier obligación en virtud de la Ley de IA».

Esos países, tres de las mayores economías de europa, comenzó negociaciones de evasión en noviembre por preocupaciones de que restricciones estrictas reducir la innovación y perjudicar a las nuevas empresas que desarrollan modelos fundamentales de IA en sus jurisdicciones. Esas preocupaciones chocaron con las de otros legisladores de la UE que intentaron introducir regulaciones estrictas sobre cómo pueden usarse y desarrollarse. Este obstáculo de último minuto en las negociaciones de la Ley de IA contribuyó a retrasos en el logro de un acuerdo, pero no fue el único punto conflictivo.

De hecho, parece que una cantidad considerable de la legislación actual seguía sin resolverse incluso días antes de que se alcanzara el acuerdo provisional. En una reunión entre los ministros europeos de comunicaciones y transportes el 5 de diciembreel Ministro Digital alemán, Volker Wissing, dijo que “la regulación de la IA en su conjunto aún no está del todo madura”.

Los sistemas GPAI enfrentaron requisitos como la divulgación de datos de capacitación, consumo de energía e incidentes de seguridad, además de estar sujetos a evaluaciones de riesgos adicionales. Como era de esperar, AbiertoAI (una empresa conocida por Negándose a revelar detalles sobre su trabajo.), Googley Microsoft presionó a la UE para suavizar las regulaciones más estrictas. Esos intentos aparentemente dieron sus frutos. Si bien los legisladores habían considerado previamente categorizar todo Aunque las GPAI son de “alto riesgo”, el acuerdo alcanzado la semana pasada las somete a un sistema de dos niveles que permite a las empresas cierto margen de maniobra para evitar las restricciones más severas de la Ley de IA. Esto también, probablemente contribuyó a los retrasos de último momento la semana pasada en Bruselas.

«Al final, obtuvimos algunas obligaciones de transparencia mínimas para los sistemas GPAI, con algunos requisitos adicionales para los llamados sistemas GPAI de ‘alto impacto’ que plantean un ‘riesgo sistémico'», dice Leufer, pero todavía hay una «larga batalla». adelante para garantizar que la supervisión y aplicación de tales medidas funcionen adecuadamente”.

También hay una categoría mucho más difícil: los sistemas con un nivel de riesgo “inaceptable”, que la Ley de IA prohíbe por completo. Y en las negociaciones hasta las últimas horas, los estados miembros fueron todavía entrenando si esto debería incluir algunas de sus herramientas de vigilancia de alta tecnología más controvertidas.

Inicialmente el Parlamento Europeo Dio luz verde a una prohibición total de los sistemas biométricos para la vigilancia pública masiva. en julio. Eso incluyó la creación de bases de datos de reconocimiento facial mediante la extracción indiscriminada de datos de las redes sociales o imágenes de CCTV; sistemas policiales predictivos basado en la ubicación y el comportamiento pasado; y categorización biométrica basada en características sensibles como etnia, religión, raza, género, ciudadanía y afiliación política. También prohibió la identificación biométrica remota, tanto en tiempo real como retroactiva, con la única excepción de permitir que las fuerzas del orden utilicen sistemas de reconocimiento retardado para procesar «delitos graves» tras la aprobación judicial. La Comisión Europea y los Estados miembros de la UE lo impugnó y ganó concesiones – a algunos consternación de los críticos.

El borrador aprobado el viernes incluye excepciones que permiten el uso limitado del reconocimiento facial automatizado, como los casos en los que la identificación se produce después de un retraso significativo. También puede aprobarse para casos de uso específicos de aplicación de la ley que involucren amenazas a la seguridad nacional, aunque solo bajo ciertas condiciones (actualmente no especificadas). Esto probablemente apaciguó a miembros del bloque como Francia, que ha presionado para utilizar la vigilancia asistida por IA para monitorear cosas como el terrorismo y el próximo Juegos Olímpicos de 2024 en Paríspero organizaciones de derechos humanos como Amnistía Internacional han sido más críticas con la decisión.

«Es decepcionante ver al Parlamento Europeo sucumbir a la presión de los Estados miembros para que se aparte de su posición original», dijo Mher Akobyan, asesor de defensa de la regulación de la IA en Amnistía Internacional. “Aunque sus defensores argumentan que el proyecto sólo permite un uso limitado del reconocimiento facial y está sujeto a salvaguardias, la investigación de Amnistía en Ciudad de Nueva York, Territorios Palestinos Ocupados, Hyderabady en otros lugares demuestra que ninguna salvaguardia puede prevenir los daños a los derechos humanos que inflige el reconocimiento facial, razón por la cual se necesita una prohibición total”.

Para complicar aún más las cosas, no podemos profundizar en qué específico Se hicieron concesiones, porque el texto completo de la Ley de IA aprobado no estará disponible hasta dentro de varias semanas. Técnicamente, probablemente aún no exista oficialmente dentro de la UE. en absoluto. Los compromisos para estos acuerdos se basan a menudo en principios y no en términos exactos, afirma Michael Veale, profesor asociado de regulación y derechos digitales en la Facultad de Derecho de la UCL. Eso significa que los legisladores podrían tardar algún tiempo en perfeccionar el lenguaje legal.

Además, como sólo se alcanzó un acuerdo provisional, la legislación final aún está sujeta a cambios. No hay un cronograma oficial disponible, pero los expertos en políticas parecen bastante unánimes con sus estimaciones: se espera que la Ley de IA se convierta en ley a mediados de 2024, luego de su publicación en el diario oficial de la UE, y todas las disposiciones entrarán en vigor gradualmente durante los próximos dos años.

Eso les da a los formuladores de políticas algo de tiempo para determinar exactamente cómo se harán cumplir estas reglas. Las empresas de inteligencia artificial también pueden aprovechar ese tiempo para garantizar que sus productos y servicios cumplan con las reglas cuando las disposiciones entren en vigencia. En última instancia, eso significa que es posible que no veamos todo regulado dentro de la Ley de IA hasta mediados de 2026. En los años de desarrollo de la IA, eso es un largo tiempo — entonces, para entonces, es posible que tengamos un conjunto completamente nuevo de cuestiones que abordar.