Cuando los legisladores europeos alcanzaron un acuerdo provisional sobre reglas históricas de inteligencia artificial la semana pasada tuvieron motivos para celebrar.
Se alcanza la Ley de IA de la UE un clímax tan esperado el viernes después no sólo de dos años de amplia discusión sino de un debate “maratoniano” de tres días entre la Comisión Europea, el Parlamento Europeo y los estados miembros de la UE para limar asperezas. Se retiraron las noches en vela. Los contenedores estaban repletos de los restos de café, bebidas energéticas y snacks azucarados. Era el tipo de ambiente que uno esperaría de estudiantes preparándose para los exámenes finales, no de legisladores trabajando en una legislación que podría establecer un modelo para la regulación global de la IA. El caos se debió en gran medida a dos temas polémicos que amenazaban con descarrilar toda la negociación: el reconocimiento facial y los poderosos modelos de “base”.
Cuando se propuso por primera vez la Ley de IA en abril de 2021, tenía como objetivo combatir “nuevos riesgos o consecuencias negativas para los individuos o la sociedad” que la inteligencia artificial podría provocar. La ley se centró en herramientas que ya se están implementando en campos como la policía, la contratación laboral y la educación. Pero si bien la intención general del proyecto de ley no cambió, la tecnología de inteligencia artificial hizo – y rápidamente. Las reglas propuestas no estaban bien equipadas para manejar sistemas de propósito general ampliamente denominados modelos básicos, como la tecnología subyacente. El explosivamente popular ChatGPT de OpenAIque se lanzó en noviembre de 2022.
Gran parte del retraso de último minuto se debió a que los formuladores de políticas se esforzaron por garantizar que estas nuevas tecnologías de inteligencia artificial, así como otras futuras aún no desarrolladas, entraran dentro del alcance de la legislación. En lugar de simplemente regular cada área en la que podrían aparecer (una lista que incluye automóviles, juguetes, dispositivos médicos y mucho más), la ley utilizó un sistema de niveles que clasifica las aplicaciones de IA según el riesgo. Los sistemas de IA de “alto riesgo” que podrían afectar la seguridad o los derechos fundamentales fueron sometidos a las restricciones regulatorias más onerosas. Además, los sistemas de IA de uso general (GPAI), como los modelos GPT de OpenAI, enfrentaban regulaciones adicionales. Había mucho en juego en esa designación y, en consecuencia, el debate al respecto fue feroz.
“En un momento, parecía que las tensiones sobre cómo regular la GPAI podrían descarrilar todo el proceso de negociación”, dice Daniel Leufer, analista senior de políticas de Access Now, una organización digital de derechos humanos. «Hubo un gran impulso por parte de Francia, Alemania e Italia para excluir completamente estos sistemas de cualquier obligación en virtud de la Ley de IA».
Esos países, tres de las mayores economías de europa, comenzó negociaciones de evasión en noviembre por preocupaciones de que restricciones estrictas reducir la innovación y perjudicar a las nuevas empresas que desarrollan modelos fundamentales de IA en sus jurisdicciones. Esas preocupaciones chocaron con las de otros legisladores de la UE que intentaron introducir regulaciones estrictas sobre cómo pueden usarse y desarrollarse. Este obstáculo de último minuto en las negociaciones de la Ley de IA contribuyó a retrasos en el logro de un acuerdo, pero no fue el único punto conflictivo.
De hecho, parece que una cantidad considerable de la legislación actual seguía sin resolverse incluso días antes de que se alcanzara el acuerdo provisional. En una reunión entre los ministros europeos de comunicaciones y transportes el 5 de diciembreel Ministro Digital alemán, Volker Wissing, dijo que “la regulación de la IA en su conjunto aún no está del todo madura”.
Los sistemas GPAI enfrentaron requisitos como la divulgación de datos de capacitación, consumo de energía e incidentes de seguridad, además de estar sujetos a evaluaciones de riesgos adicionales. Como era de esperar, AbiertoAI (una empresa conocida por Negándose a revelar detalles sobre su trabajo.), Googley Microsoft presionó a la UE para suavizar las regulaciones más estrictas. Esos intentos aparentemente dieron sus frutos. Si bien los legisladores habían considerado previamente categorizar todo Aunque las GPAI son de “alto riesgo”, el acuerdo alcanzado la semana pasada las somete a un sistema de dos niveles que permite a las empresas cierto margen de maniobra para evitar las restricciones más severas de la Ley de IA. Esto también, probablemente contribuyó a los retrasos de último momento la semana pasada en Bruselas.
«Al final, obtuvimos algunas obligaciones de transparencia mínimas para los sistemas GPAI, con algunos requisitos adicionales para los llamados sistemas GPAI de ‘alto impacto’ que plantean un ‘riesgo sistémico'», dice Leufer, pero todavía hay una «larga batalla». adelante para garantizar que la supervisión y aplicación de tales medidas funcionen adecuadamente”.
También hay una categoría mucho más difícil: los sistemas con un nivel de riesgo “inaceptable”, que la Ley de IA prohíbe por completo. Y en las negociaciones hasta las últimas horas, los estados miembros fueron todavía entrenando si esto debería incluir algunas de sus herramientas de vigilancia de alta tecnología más controvertidas.
Inicialmente el Parlamento Europeo Dio luz verde a una prohibición total de los sistemas biométricos para la vigilancia pública masiva. en julio. Eso incluyó la creación de bases de datos de reconocimiento facial mediante la extracción indiscriminada de datos de las redes sociales o imágenes de CCTV; sistemas policiales predictivos basado en la ubicación y el comportamiento pasado; y categorización biométrica basada en características sensibles como etnia, religión, raza, género, ciudadanía y afiliación política. También prohibió la identificación biométrica remota, tanto en tiempo real como retroactiva, con la única excepción de permitir que las fuerzas del orden utilicen sistemas de reconocimiento retardado para procesar «delitos graves» tras la aprobación judicial. La Comisión Europea y los Estados miembros de la UE lo impugnó y ganó concesiones – a algunos consternación de los críticos.