La UE vota para prohibir las formas más riesgosas de IA e imponer restricciones a otras


Imágenes falsas | abejabrillante

El Parlamento Europeo votó hoy a favor de aprobar la Ley de Inteligencia Artificial, que prohibirá los usos de IA «que planteen riesgos inaceptables» e impondrá regulaciones sobre tipos de IA menos riesgosos.

«Las nuevas reglas prohíben ciertas aplicaciones de IA que amenazan los derechos de los ciudadanos, incluidos los sistemas de categorización biométrica basados ​​en características sensibles y la extracción no selectiva de imágenes faciales de Internet o secuencias de CCTV para crear bases de datos de reconocimiento facial», se dice hoy en un anuncio del Parlamento Europeo. «También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas».

La prohibición de determinadas aplicaciones de IA prevé sanciones de hasta 35 millones de euros o el 7 por ciento de la «facturación anual total mundial de una empresa durante el ejercicio financiero anterior, lo que sea mayor». Las violaciones de otras disposiciones tienen penas menores.

Existen exenciones para permitir el uso de sistemas de identificación biométrica remota por parte de las fuerzas del orden en ciertos casos. Un resumen de la legislación de la Comisión Europea decía:

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de identificación biométrica remota en espacios de acceso público con fines policiales está, en principio, prohibido.

Se definen y regulan estrictamente excepciones específicas, como cuando es necesario buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave.

“Obligaciones estrictas” para la IA de alto riesgo

La Ley AI fue apoyada por 523 miembros del Parlamento Europeo (MEP), mientras que 46 votaron en contra y 49 se abstuvieron. La legislación clasifica la IA en cuatro categorías de riesgo: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo o nulo.

«Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse», dice el resumen de la legislación. Las obligaciones incluyen «sistemas adecuados de evaluación y mitigación de riesgos», «registro de actividades para garantizar la trazabilidad de los resultados», «medidas apropiadas de supervisión humana para minimizar el riesgo» y otros requisitos.

La ley generó la oposición de la Asociación de la Industria de Computación y Comunicaciones, un grupo de presión de la industria tecnológica.

«La Ley de IA acordada impone obligaciones estrictas a los desarrolladores de tecnologías de vanguardia que sustentan muchos sistemas posteriores y, por lo tanto, es probable que ralentice la innovación en Europa», dijo el grupo cuando se llegó a un acuerdo sobre la ley en diciembre de 2023. Además, ciertos sistemas de IA de bajo riesgo estarán ahora sujetos a requisitos estrictos sin mayor justificación, mientras que otros serán prohibidos por completo. Esto podría provocar un éxodo de empresas europeas de IA y de talentos que busquen crecer en otros lugares».

La ley estará oficialmente vigente 20 días después de su publicación en el Diario Oficial, según el anuncio del Parlamento Europeo. La ley que prohíbe las prácticas prohibidas se aplicará seis meses después, pero otras regulaciones no entrarán en vigor hasta más tarde. Las «obligaciones para sistemas de alto riesgo» sólo entrarán en vigor después de 36 meses, según el anuncio.

«Por fin tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia», afirmó el eurodiputado Brando Benifei, coponente de la Comisión de Mercado Interior. Se creará una oficina de IA «para ayudar a las empresas a empezar a cumplir las normas antes de que entren en vigor», afirmó.

Categorías riesgosas de IA

Ejemplos de IA de alto riesgo incluyen la IA utilizada en cirugía asistida por robot; sistemas de calificación crediticia que pueden negar préstamos; aplicación de la ley que pueda interferir con derechos fundamentales, como la evaluación de la confiabilidad de las pruebas; y examen automatizado de solicitudes de visa.

La categoría de riesgo limitado tiene que ver con aplicaciones que no son transparentes sobre el uso de la IA. «La Ley de IA introduce obligaciones específicas de transparencia para garantizar que los humanos estén informados cuando sea necesario, fomentando la confianza», dijo la Comisión Europea. «Por ejemplo, cuando se utilizan sistemas de IA como los chatbots, los humanos deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás. Los proveedores también tendrán que asegurarse de que el contenido generado por IA sea identificable. «.

El texto generado por IA que «se publica con el propósito de informar al público sobre asuntos de interés público debe etiquetarse como generado artificialmente», y este requisito «también se aplica al contenido de audio y video que constituye falsificaciones profundas».

La IA con riesgo mínimo o nulo «incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría», dijo la comisión. No habría restricciones en esta categoría.



Source link-49