Los reguladores de la UE aprueban las primeras regulaciones radicales sobre IA del planeta


El Parlamento Europeo tiene una legislación amplia para regular la inteligencia artificial, casi tres años después de que se aprobara el proyecto de reglas. Funcionarios en diciembre. El miércoles, los parlamentarios aprobaron la Ley de AI con 523 votos a favor, 46 en contra y 49 abstenciones.

La UE dice que las regulaciones buscan «proteger los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental de la IA de alto riesgo, al tiempo que impulsan la innovación y establecen a Europa como líder en este campo». La ley define las obligaciones para las aplicaciones de IA en función de los riesgos e impactos potenciales.

La legislación aún no se ha convertido en ley. Todavía está sujeto a controles de los juristas lingüistas, mientras que el Consejo Europeo necesita hacer cumplirlo formalmente. Pero es probable que la Ley de IA entre en vigor antes del final de la legislatura, antes de las próximas elecciones parlamentarias a principios de junio.

La mayoría de las disposiciones entrarán en vigor 24 meses después de que la Ley de IA se convierta en ley, pero las prohibiciones de aplicaciones prohibidas se aplicarán después de seis meses. La UE está prohibiendo prácticas que cree que amenazarán los derechos de los ciudadanos. Se prohibirán los «sistemas de categorización biométrica basados ​​en características sensibles», al igual que el «raspado no dirigido» de imágenes de rostros de imágenes de CCTV y de la web para crear bases de datos de reconocimiento facial. La actividad de Clearview AI entraría en esa categoría.

Otras aplicaciones que serán prohibidas incluyen; reconocimiento de emociones en escuelas y lugares de trabajo; y «IA que manipula el comportamiento humano o explota las vulnerabilidades de las personas». Se prohibirán algunos aspectos de la vigilancia policial predictiva, es decir, cuando se base exclusivamente en evaluar las características de alguien (como inferir su orientación sexual u opiniones políticas) o elaborar un perfil. Aunque la Ley de IA prohíbe en general el uso de sistemas de identificación biométrica por parte de las fuerzas del orden, se permitirá en determinadas circunstancias con autorización previa, como para ayudar a encontrar a una persona desaparecida o prevenir un ataque terrorista.

Las aplicaciones que se consideran de alto riesgo, incluido el uso de IA en la aplicación de la ley y la atención médica, están sujetas a . No deben discriminar y deben respetar las normas de privacidad. Los desarrolladores deben demostrar que los sistemas son transparentes, seguros y también explicables para los usuarios. En cuanto a los sistemas de IA que la UE considera de bajo riesgo (como los filtros de spam), los desarrolladores aún tienen que informar a los usuarios que están interactuando con contenido generado por IA.

La ley tiene algunas reglas en lo que respecta a la IA generativa y también a los medios manipulados. Los deepfakes y cualquier otra imagen, vídeo y audio generados por IA deberán etiquetarse claramente. Los modelos de IA también deberán respetar las leyes de derechos de autor. «Los titulares de derechos pueden optar por reservar sus derechos sobre sus obras u otros temas para evitar la extracción de textos y datos, a menos que esto se haga con fines de investigación científica», dice el texto de la Ley de IA. «Cuando los derechos de exclusión se han reservado expresamente de manera adecuada, los proveedores de modelos de IA de uso general deben obtener una autorización de los titulares de derechos si quieren llevar a cabo extracción de textos y datos sobre dichas obras». Sin embargo, los modelos de IA creados exclusivamente para investigación, desarrollo y creación de prototipos están exentos.

Los modelos de IA generativa y de propósito general más potentes (aquellos entrenados con una potencia informática total de más de 10^25 FLOP) están sujetos a las reglas. El umbral puede ajustarse con el tiempo, pero se cree que GPT-4 de OpenAI y Gemini de DeepMind entran en esta categoría.

Los proveedores de dichos modelos tendrán que evaluar y mitigar riesgos, informar incidentes graves, proporcionar detalles del consumo energético de sus sistemas, garantizar que cumplen con los estándares de ciberseguridad y realizar pruebas y evaluaciones de modelos de última generación.

Al igual que con otras regulaciones de la UE dirigidas a la tecnología, las sanciones por violar las disposiciones de la Ley de IA pueden ser elevadas. Las empresas que violen las reglas estarán sujetas a multas de hasta 35 millones de euros (51,6 millones de dólares) o hasta el siete por ciento de sus ganancias anuales globales, lo que sea mayor.

La Ley de IA se aplica a cualquier modelo que opere en la UE, por lo que los proveedores de IA con sede en EE. UU. deberán cumplirla, al menos en Europa. Sam Altman, director ejecutivo del creador de OpenAI, OpenAI, sugirió en mayo pasado que su empresa podría retirarse de Europa si la Ley de IA se convirtiera en ley, pero la empresa no tenía planes de hacerlo.

Para hacer cumplir la ley, cada país miembro creará su propio organismo de control de la IA y la Comisión Europea creará una Oficina de IA. Esto desarrollará métodos para evaluar modelos y monitorear riesgos en modelos de propósito general. A los proveedores de modelos de uso general que se considere que conllevan riesgos sistémicos se les pedirá que trabajen con la oficina para elaborar códigos de conducta.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.



Source link-47