La UE dice que las nuevas normas para las IA de uso general pueden evolucionar con el tiempo


El acuerdo político alcanzado por los legisladores de la Unión Europea el viernes por la noche sobre lo que el bloque está presentando como la primera ley integral del mundo para regular la inteligencia artificial incluye poderes para que la Comisión adapte el código de reglas pan-UE de la IA para seguir el ritmo de los desarrollos en el campo de vanguardia. Ha confirmado.

El término elegido por los legisladores para regular los modelos más poderosos detrás del actual auge de las herramientas de IA generativa, a los que la Ley de la UE se refiere como modelos y sistemas de IA de “propósito general”, en lugar de utilizar términos de elección de la industria, como “fundamental” o “ modelos de frontera”, también se seleccionó con miras a preparar la ley entrante para el futuro, según la Comisión, y los colegisladores favorecieron un término genérico para evitar una clasificación que podría vincularse al uso de una tecnología específica (es decir, aprendizaje automático basado en transformadores).

“En el futuro, es posible que tengamos enfoques técnicos diferentes. Por eso buscábamos un término más genérico”, sugirió hoy un funcionario de la Comisión. “Los modelos básicos, por supuesto, son parte de los modelos de IA de propósito general. Se trata de modelos que se pueden utilizar para una gran variedad de tareas y también se pueden integrar en sistemas. Para darle un ejemplo concreto, el modelo de IA de propósito general sería GPT-4 y el sistema de IA de propósito general sería ChatGPT, donde GPT-4 está integrado en ChatGPT”.

Como informamos anteriormente, el acuerdo acordado por los colegisladores del bloque incluye un nivel de bajo riesgo y un nivel de alto riesgo para regular las llamadas IA de propósito general (GPAI), como los modelos detrás del auge viral de las herramientas de IA generativa como ChatGPT de OpenAI. . El factor desencadenante para la aplicación de normas de alto riesgo a las tecnologías de IA generativa está determinado por un umbral inicial establecido en la ley.

Además, como informamos el jueves, el borrador acordado de la Ley de IA de la UE hace referencia a la cantidad de computación utilizada para entrenar los modelos, también conocidas como operaciones de punto flotante (o FLOP), lo que establece el estándar para que se considere que una GPAI tiene «capacidades de alto impacto». a 10^25 FLOP.

Pero durante una sesión informativa técnica con periodistas hoy para revisar el acuerdo político, la Comisión confirmó que se trata sólo de un “umbral inicial”, afirmando que tendrá poderes para actualizar el umbral con el tiempo mediante actos de implementación/delegación (es decir, legislación secundaria). También dijo que la idea es que el umbral de FLOP se combine, con el tiempo, con “otros puntos de referencia” que serán desarrollados por un nuevo organismo de supervisión de expertos que se creará dentro de la Comisión, llamado Oficina de IA.

¿Por qué se seleccionaron 25 FLOP como umbral de alto riesgo para las GPAI? La Comisión sugiere que la cifra se eligió con la intención de reflejar los modelos actuales de frontera generacional. Sin embargo, afirmó que los legisladores no discutieron ni siquiera consideraron si se aplicaría a los modelos actualmente en juego, como el GPT-4 de OpenAI o el Gemini de Google, durante los maratones de diálogos tripartitos para acordar la forma final del libro de reglas.

Un funcionario de la Comisión añadió que, en cualquier caso, corresponderá a los fabricantes de GPAI autoevaluar si sus modelos cumplen con el umbral de FLOP y, por lo tanto, si caen bajo las reglas para GPAI “con riesgo sistémico” o no.

«No hay fuentes oficiales que digan que ChatGPT o Gemini o los modelos chinos están en este nivel de FLOP», dijo el funcionario durante la rueda de prensa. “Basándonos en la información que tenemos y con este 10^25 que hemos elegido, hemos elegido un número que realmente podría capturar, un poco, los modelos de frontera que tenemos. Ya sea que se trate de capturar GPT-4 o Gemini u otros, no estamos aquí para afirmarlo ahora, porque también, en nuestro marco, son las empresas las que tendrían que venir y autoevaluar cuál es la cantidad de FLOP o la capacidad informática que han utilizado. . Pero, por supuesto, si lees la literatura científica, muchos señalarán que estos números son los modelos más avanzados en este momento. Veremos qué valoran las empresas porque son las mejor situadas para hacer esta valoración”.

«Las reglas no se han escrito teniendo en cuenta a determinadas empresas», agregaron. “Realmente se escribieron con la idea de definir el umbral, que, por cierto, puede cambiar porque tenemos la posibilidad de tener el poder de cambiar este umbral sobre la base de la evolución tecnológica. Podría subir, podría bajar y también podríamos desarrollar otros puntos de referencia que en el futuro serán los más apropiados para comparar los diferentes momentos”.

Las GPAI que se encuentran en el nivel de alto riesgo de la Ley de IA enfrentarán requisitos regulatorios ex ante para evaluar y mitigar los riesgos sistémicos, lo que significa que deben probar de manera proactiva los resultados del modelo para reducir los riesgos de efectos negativos reales (o “razonablemente previsibles”) en la salud pública. seguridad, la seguridad pública, los derechos fundamentales o para la sociedad en su conjunto.

Mientras que las GPAI de “nivel bajo” solo enfrentarán requisitos de transparencia más livianos, incluidas obligaciones de aplicar marcas de agua a los resultados de IA generativa.

El requisito de marca de agua para las GPAI se incluye en un artículo que figuraba en la versión original de la Comisión del marco basado en riesgos, presentado en abril de 2021, que se centraba en los requisitos de transparencia para tecnologías como los chatbots de IA y los deepfakes, pero que ahora También se aplican en general a los sistemas de IA de propósito general.

“Existe la obligación de intentar poner marcas de agua [generative AI-produced] texto sobre la base de la última tecnología disponible”, dijo el funcionario de la Comisión, detallando los detalles de las obligaciones acordadas sobre marcas de agua. “Por el momento, las tecnologías son mucho mejores para poner marcas de agua en videos y audio que en texto. Pero lo que preguntamos es el hecho de que esta marca de agua se realice sobre la base de tecnología de punta, y luego esperamos, por supuesto, que con el tiempo la tecnología madure y sea lo más avanzada posible. [good] como sea posible.»

Los fabricantes de modelos GPAI también deben comprometerse a respetar las normas de derechos de autor de la UE, incluido el cumplimiento de una opción de exclusión de la minería de datos y textos legible por máquina existente contenida en la Directiva de derechos de autor de la UE, y una exclusión de los requisitos de transparencia de la ley para las GPAI de código abierto no lo hace. no ampliarse para liberarlos de las obligaciones de derechos de autor, y la Comisión confirma que la Directiva sobre derechos de autor seguirá aplicándose a las GPAI de código abierto.

En cuanto a la Oficina de IA, que desempeñará un papel clave en el establecimiento de umbrales de clasificación de riesgo para las GPAI, la Comisión confirmó que todavía no hay presupuesto ni personal definido para el organismo de expertos. (Aunque, en las primeras horas de la mañana del sábado, el comisionado de Mercado Interno del bloque, Thierry Breton, sugirió que la UE dará la bienvenida a “muchos” nuevos colegas mientras fortalece este organismo de supervisión de IA de propósito general).

Cuando se le preguntó sobre los recursos para la Oficina de IA, un funcionario de la Comisión dijo que en el futuro será decidido por el ejecutivo de la UE tomando «una decisión oficial y apropiada». “La idea es que podamos crear una línea presupuestaria específica para la Oficina y que también podremos contratar expertos nacionales de los Estados miembros si lo deseamos, además de los agentes contractuales y el personal permanente. Y parte de este personal también se desplegará dentro de la Comisión Europea”, agregaron.

La Oficina de IA trabajará en conjunto con un nuevo panel asesor científico que la ley también establecerá para ayudar al organismo a comprender mejor las capacidades de los modelos avanzados de IA con el fin de regular el riesgo sistémico. «Hemos identificado un papel importante para la creación de un panel científico que pueda ayudar efectivamente a la Oficina de Inteligencia Artificial a comprender si existen nuevos riesgos que aún no han sido identificados», señaló el funcionario. «Y, por ejemplo, también señalar algunas alertas sobre los modelos que no están capturados por el umbral FLOP que, por ciertas razones, en realidad podrían dar lugar a riesgos importantes que los gobiernos deberían considerar».

Si bien el ejecutivo de la UE parece dispuesto a garantizar que los detalles clave de la ley entrante se publiquen a pesar de que aún no hay un texto final, porque se trabaja para consolidar lo acordado por los colegisladores durante las maratónicas conversaciones de 38 horas que terminaron el viernes por la noche. es la próxima tarea que enfrentará el bloque en las próximas semanas; todavía podrían haber algunos demonios acechando en ese detalle. Por lo tanto, valdrá la pena examinar el texto que surja, probablemente en enero o febrero.

Además, si bien la regulación completa no estará en vigor hasta dentro de algunos años, la UE presionará para que las GPAI cumplan con los códigos de práctica mientras tanto, por lo que los gigantes de la IA se verán presionados para apegarse lo más posible a las estrictas regulaciones que se avecinan. por el tubo como sea posible, a través del Pacto AI del bloque.

Es probable que la propia Ley de IA de la UE no entre en pleno vigor hasta algún momento de 2026, dado que el texto final, una vez compilado (y traducido a los idiomas de los Estados miembros), debe ser confirmado mediante votaciones finales en el parlamento y el Consejo, después de lo cual Hay un breve periodo antes de que el texto de la ley se publique en el Diario Oficial de la UE y otro antes de que entre en vigor.

Los legisladores de la UE también acordaron un enfoque gradual para las demandas de cumplimiento de la Ley, con 24 meses permitidos antes de que las reglas de alto riesgo se apliquen a las GPAI.

La lista de casos de uso de IA estrictamente prohibidos se aplicará antes, solo seis meses después de que la ley entre en vigor, lo que podría, potencialmente, significar prohibiciones de ciertos usos de IA de “riesgo inaceptable”, como la puntuación social o el estilo Clearview AI. El selfie scraping para bases de datos de reconocimiento facial se pondrá en marcha en la segunda mitad de 2024, suponiendo que no surja oposición de último minuto al reglamento en el Consejo o el Parlamento. (Para obtener la lista completa de usos prohibidos de la IA, lea nuestra publicación anterior).



Source link-48