La Unión Europea busca regular la inteligencia artificial, en tiempos de ChatGPT


¿De qué hablaron los líderes de OpenAI y el secretario de Estado de Digital, Jean-Noël Barrot, durante su reunión a principios de enero en San Francisco, donde tiene su sede la organización? La inteligencia artificial, por supuesto, porque OpenAI es el creador de ChatGPT, el software que ha causado sensación desde diciembre con su capacidad para crear textos que imitan la prosa humana. Pero las discusiones se centraron principalmente en el proyecto regulatorio lanzado por Europa, denominado “AI Act”.

Lea también: Artículo reservado para nuestros suscriptores ChatGPT: probamos los límites morales de la inteligencia artificial generadora de contenido

De hecho, el continente aspira a ser el primero en supervisar este vasto campo, considerado tanto prometedor como plagado de peligros. El éxito de ChatGPT ha reavivado los debates en torno a este reglamento, que lleva más de un año en proceso: está supervisado por OpenAI y los lobbies de los gigantes digitales, mientras que, después de que la Comisión Europea y el Consejo reunieran a los miembros Unidos, es el turno del Parlamento Europeo de presentar su versión del texto en marzo.

Desde el inicio, ya propuesta de la Comisión, en abril de 2021, la voluntad manifestada ha sido la de elaborar un texto » balance «. “La Unión Europea debe ser número uno en regulación pero también en innovación”, explicamos a la oficina del comisario del mercado interior, Thierry Breton, a favor de sacar a la luz una economía de datos, en particular industrial. El tono es menos ofensivo que en las regulaciones de la Ley de Mercados Digitales y la Ley de Servicios Digitales, que se referían a las plataformas. «dominante» en las redes sociales, el comercio electrónico o la investigación en línea, y a menudo estadounidense.

Deberían prohibirse los sistemas de «clasificación social» al estilo chino

Por lo tanto, la Ley AI se basó en un enfoque «por los riesgos» : la inteligencia artificial se regula allí según sus usos, considerados más o menos peligrosos. Así, unos pocos deberían estar prohibidos: los sistemas de «clasificación social» Estilo chino, «técnicas subliminales» destinados a manipular a los ciudadanos, software «que exploten vulnerabilidades por edad, discapacidad o condición social», y también videovigilancia que permite «la identificación biométrica de personas en tiempo real en el espacio público», excepto para la aplicación de la ley en el contexto de las investigaciones o la lucha contra el terrorismo.

“Testamentos contradictorios”

Otros usos se clasifican «alto riesgo» : en transporte (conducción autónoma de vehículos, etc.), educación y recursos humanos (calificación de exámenes, clasificación de currículums, etc.), salud (cirugía asistida por robot), servicios (obtención de créditos), justicia (evaluación de pruebas) … El texto impone entonces obligaciones: comprobar el » calidad « datos utilizados para entrenar el software, “minimizar riesgos y resultados discriminatorios”, garantizar una tasa de error baja… También se debe advertir a los usuarios que están interactuando con una máquina.

Le queda por leer el 56,21% de este artículo. Lo siguiente es solo para suscriptores.



Source link-5