La batalla global para regular la IA apenas comienza | CON CABLE


A fines de abril, el Parlamento Europeo se había concentrado en una lista de prácticas que debían prohibirse: puntuación social, vigilancia policial predictiva, algoritmos que raspan indiscriminadamente Internet en busca de fotografías y reconocimiento biométrico en tiempo real en espacios públicos. Sin embargo, el jueves, los miembros del parlamento del conservador Partido Popular Europeo todavía cuestionaban si se debería eliminar la prohibición biométrica. “Es un tema político fuertemente divisivo, porque algunas fuerzas y grupos políticos lo ven como una fuerza de lucha contra el crimen y otros, como los progresistas, lo vemos como un sistema de control social”, dice Brando Benifei, co-relator y un italiano Eurodiputado del grupo político Socialistas y Demócratas.

Luego vinieron las conversaciones sobre los tipos de IA que deberían marcarse como de alto riesgo, como los algoritmos utilizados para administrar la fuerza laboral de una empresa o por un gobierno para administrar la migración. Estos no están prohibidos. “Pero debido a sus implicaciones potenciales, y subrayo la palabra potencial—sobre nuestros derechos e intereses, deben pasar por algunos requisitos de cumplimiento, para asegurarse de que esos riesgos se mitiguen adecuadamente”, dice el jefe de Nechita, el eurodiputado rumano y coponente Dragoș Tudorache, y agrega que la mayoría de estos requisitos son principalmente para hacer con transparencia Los desarrolladores deben mostrar qué datos han utilizado para entrenar su IA y deben demostrar cómo han tratado de eliminar el sesgo de manera proactiva. También se establecería un nuevo organismo de inteligencia artificial para crear un centro central para la aplicación.

Las empresas que implementen herramientas de inteligencia artificial generativa como ChatGPT tendrían que revelar si sus modelos han sido entrenados en material protegido por derechos de autor, lo que hace que las demandas sean más probables. Y los generadores de texto o imágenes, como MidJourney, también tendrían que identificarse como máquinas y marcar su contenido de una manera que muestre que se generó artificialmente. También deben asegurarse de que sus herramientas no produzcan abuso infantil, terrorismo, incitación al odio o cualquier otro tipo de contenido que infrinja la legislación de la UE.

Una persona, que pidió permanecer en el anonimato porque no quería atraer la atención negativa de los grupos de cabildeo, dijo que algunas de las reglas para los sistemas de IA de uso general se diluyeron a principios de mayo tras el cabildeo de los gigantes tecnológicos. Se eliminaron los requisitos para los modelos básicos, que forman la base de herramientas como ChatGPT, para ser auditados por expertos independientes.

Sin embargo, el parlamento acordó que los modelos de cimientos deben registrarse en una base de datos antes de ser lanzados al mercado, por lo que las empresas deberían informar a la UE de lo que han comenzado a vender. “Ese es un buen comienzo”, dice Nicolas Moës, director de gobernanza europea de IA en Future Society, un grupo de expertos.

El cabildeo de las grandes empresas tecnológicas, incluidas Alphabet y Microsoft, es algo de lo que los legisladores de todo el mundo deberán tener cuidado, dice Sarah Myers West, directora gerente del AI Now Institute, otro grupo de expertos. “Creo que estamos viendo un libro de jugadas emergente sobre cómo están tratando de inclinar el entorno político a su favor”, dice ella.

Lo que ha conseguido el Parlamento Europeo es un acuerdo que intenta complacer a todo el mundo. “Es un verdadero compromiso”, dice un funcionario del parlamento, que pidió no ser identificado porque no está autorizado a hablar en público. “Todo el mundo es igualmente infeliz”.



Source link-46