La nueva ley de IA de la UE es un monstruo regulatorio


Muchas empresas suizas también están sujetas a las normas de Bruselas. La industria de la consultoría se beneficiará principalmente del previsible aumento de la burocracia.

El empleado supervisado: en el futuro se prohibirán los sistemas de reconocimiento de emociones en el lugar de trabajo.

Bill Varie/El banco de imágenes/Getty

Un monstruo ha visto la luz, un monstruo regulatorio: el fin de semana pasado, Bruselas presentó el “primer marco legal integral del mundo para la IA”. Las instituciones de la UE implicadas están orgullosas.

En otros lugares la respuesta es silenciosa: No sería bueno que Bruselas elaborara normas para la IA, pero alguien tiene que hacerlo, escribió un comentarista del Financial Times. El reglamento parece ser un clásico de la UE: bien intencionado en principio, pero muy complejo en la práctica.

Sanciones de hasta el 7 por ciento de las ventas.

Las empresas tienen ahora mucho trabajo que hacer que no pueden evitar; las multas amenazadas son demasiado elevadas. Por ejemplo, las empresas que utilizan aplicaciones recientemente prohibidas, como los sistemas de reconocimiento de emociones en el lugar de trabajo, deben pagar hasta el 7 por ciento de sus ventas globales.

Tener el domicilio de su empresa en el extranjero no lo protege de un proceso penal. «La ley de la UE sobre IA tiene un efecto extraterritorial y, por lo tanto, también puede tener consecuencias de gran alcance para las empresas suizas», afirma Nando Lappert, experto en tecnología y derecho de protección de datos de la consultora KPMG.

El esfuerzo que tendrán que hacer las empresas para cumplir todos los requisitos de esta ley será al menos tan grande como cuando se introdujo el Reglamento General de Protección de Datos de la UE, predice Kevin Schawinski, cofundador y director de la empresa Modulos. Esto apoya a las empresas en el desarrollo de productos de IA. En aquel momento, muchas empresas tuvieron que reconstruir su infraestructura de datos.

Martin Steiger, fundador de Steiger Legal, un bufete de abogados «para el derecho en el espacio digital», incluso describe la regulación de la IA como «un impulso empresarial para la industria del cumplimiento, que ya está creciendo muy rápidamente».

Toda la industria de la consultoría se está posicionando actualmente para ayudar a las empresas con los “sistemas de reducción de riesgos” y los requisitos de registro y documentación necesarios.

La UE es el orgulloso campeón mundial en materia de regulación, afirma Steiger. «Sus normas son bien intencionadas, pero siempre van acompañadas de costes elevados y efectos secundarios indeseables».

La regulación ayuda a las grandes empresas, por ejemplo, porque pueden gestionar mejor el esfuerzo de cumplimiento, afirma Steiger. Por lo tanto, le sorprende la “retórica pomposa de la Comisión de la UE”, que supone que su regulación permitirá que los investigadores y las empresas emergentes europeas puedan asumir un papel de liderazgo en la IA.

Incluso Emmanuel Macron, presidente de un país conocido y temido por su alto nivel de regulación, criticó el excesivo celo regulatorio de Bruselas.

Uno de los problemas es que la UE define los sistemas de IA de manera muy amplia. Esto también incluye sistemas basados ​​en máquinas con un bajo grado de autonomía, afirma Nando Lappert. “También se registran, por ejemplo, tecnologías que las empresas ya utilizan ampliamente: chatbots, asistentes de redacción y traducción o tecnologías que ayudan en la preselección en el proceso de contratación”.

La definición amplia genera máxima preocupación. “Hoy en día, las empresas utilizan más aplicaciones de IA de lo que la gente suele pensar”, afirma Schawinski. Pero, en particular, las empresas más grandes no tienen una visión general de todas las aplicaciones de IA que se utilizan en los distintos departamentos. «Por eso primero hay que crear un inventario».

Es muy posible que algunos programas individuales tengan que saltar el precipicio. «Muchas aplicaciones de IA están mal diseñadas teniendo en cuenta los requisitos de la ley y apenas documentadas», afirma Schawinski. Para aplicaciones de riesgo, por ejemplo en el área de recursos humanos, podría resultar más sencillo si las configuras desde cero. Porque en su forma actual la certificación difícilmente será posible. Estas aplicaciones de riesgo incluyen la identificación biométrica.

El nuevo estándar mundial

Al igual que con la protección de datos, es probable que las regulaciones de IA de la UE se conviertan en un estándar internacional. Y la nueva Oficina Europea para la IA, que tendrá su sede en la Comisión de la UE, podría tener un impacto global en el futuro desarrollo de la IA. No porque Europa esté impulsando esto, sino porque el mercado interno es demasiado importante para que las empresas estadounidenses y asiáticas ignoren las regulaciones de la UE.

Dos de los principios consagrados por la UE ya están siendo emulados en todo el mundo, incluso en Estados Unidos, afirma Schawinski. “Que no son los modelos de IA los que están regulados, sino los productos y aplicaciones específicas. Y que elijas un enfoque basado en el riesgo”.

Esto significa que existen gradaciones entre las aplicaciones de IA: desde aquellas que plantean un riesgo mínimo hasta aplicaciones que tienen consecuencias tan graves que están prohibidas. Sin embargo, muchas de las disposiciones siguen siendo vagas y deben aclararse más, lo que inquieta aún más a los usuarios afectados.

Los expertos describen la iniciativa de la UE como una bendición y una maldición al mismo tiempo. La necesidad de regular la IA es indiscutible, afirma Lappert. «Las grandes empresas tecnológicas que apuestan activamente por sistemas de IA éticos y fiables también lo exigen».

Sin embargo, las regulaciones de la UE a menudo son muy específicas y no están formuladas de manera neutral desde el punto de vista tecnológico y basada en principios, lamenta el experto de KPMG. Esto podría dificultar su aplicabilidad a futuros desarrollos tecnológicos.

«Es probable que la ley tenga un impacto social importante porque exige etiquetar siempre que se trate de una IA y no de una persona o una decisión tomada por humanos», afirma Schawinski.

Esto aumentará la conciencia de la gente sobre el creciente poder de la IA, lo que ciertamente no hará daño. “Hoy en día, muchas personas ni siquiera son conscientes de los riesgos que corren al revelar sus datos personales al utilizar una IA”, afirma Lappert.

“Desde la perspectiva del consumidor, es ciertamente bueno que exista la obligación de ser transparente cuando se utiliza la IA en áreas de riesgo. «También tiene sentido prohibir por completo algunas aplicaciones», afirma Martin Steiger. Al mismo tiempo, sin embargo, existen excepciones para aplicaciones con los llamados riesgos inaceptables. “Mi preocupación es que el Estado se aproveche de esto y que la lista de excepciones para las autoridades siga creciendo”.

Un artículo del «NZZ el domingo»



Source link-58