La UE ha alcanzado un acuerdo regulatorio histórico sobre el desarrollo de la IA


Después de un debate maratónico de 72 horas, los legisladores de la Unión Europea llegaron el viernes a un acuerdo histórico sobre su amplio proyecto de ley de desarrollo de seguridad de la Ley de IA, el más amplio y de mayor alcance de su tipo hasta la fecha, informa El Correo de Washington. Los detalles del acuerdo en sí no estuvieron disponibles de inmediato.

«Esta legislación representará un estándar, un modelo, para muchas otras jurisdicciones», dijo Dragoș Tudorache, un legislador rumano que codirige la negociación de la Ley de IA. El Washington Post, «Lo que significa que tenemos que tener un deber extra de cuidado cuando lo redactemos porque va a ser una influencia para muchos otros».

Las regulaciones propuestas dictarían las formas en que los futuros modelos de aprendizaje automático podrían desarrollarse y distribuirse dentro del bloque comercial, impactando su uso en aplicaciones que van desde la educación hasta el empleo y la atención médica. El desarrollo de la IA se dividiría en cuatro categorías dependiendo del riesgo social que cada una de ellas represente: mínimo, limitado, alto y prohibido.

Los usos prohibidos incluirían cualquier cosa que eluda la voluntad del usuario, se dirija a grupos sociales protegidos o proporcione seguimiento biométrico en tiempo real (como el reconocimiento facial). Los usos de alto riesgo incluyen cualquier cosa «destinada a ser utilizada como componente de seguridad de un producto» o que deba usarse en aplicaciones definidas como infraestructura crítica, educación, asuntos legales/judiciales y contratación de empleados. Chatbots como ChatGPT, Bard y Bing caen bajo las métricas de «riesgo limitado».

“La Comisión Europea una vez más ha actuado con audacia para abordar la tecnología emergente, tal como lo había hecho con la privacidad de los datos a través del GDPR”, dijo a Engadget en 2021 la Dra. Brandie Nonnecke, directora del Laboratorio de Políticas CITRIS de UC Berkeley. «La regulación propuesta es bastante interesante porque ataca el problema desde un enfoque basado en el riesgo», similar a lo que se sugiere en el marco regulatorio de IA propuesto por Canadá.

Las negociaciones en curso sobre las reglas propuestas habían sido interrumpidas en las últimas semanas por Francia, Alemania e Italia. Estaban obstaculizando las conversaciones sobre las reglas que guían cómo los países miembros de la UE podrían desarrollar modelos fundamentales, IA generalizadas a partir de las cuales se pueden ajustar aplicaciones más especializadas. GPT-4 de OpenAI es uno de esos modelos fundamentales, ya que ChatGPT, GPT y otras aplicaciones de terceros se entrenan desde su funcionalidad básica. Al trío de países le preocupaba que las estrictas regulaciones de la UE sobre modelos de IA generativa pudieran obstaculizar los esfuerzos de los países miembros para desarrollarlos de manera competitiva.

La CE había abordado previamente los crecientes desafíos de la gestión de tecnologías de IA emergentes a través de una variedad de esfuerzos, lanzando la primera Estrategia Europea sobre IA y el Plan Coordinado sobre IA en 2018, seguido de las Directrices para una IA confiable en 2019. Al año siguiente, la La Comisión publicó un Libro Blanco sobre la IA y un informe sobre las implicaciones de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica.

«La inteligencia artificial no debería ser un fin en sí misma, sino una herramienta que debe servir a las personas con el objetivo final de aumentar el bienestar humano», escribió la Comisión Europea en su proyecto de reglamento sobre IA. «Las normas para la inteligencia artificial disponible en el mercado de la Unión o que afecten de otro modo a los ciudadanos de la Unión deberían, por tanto, poner a las personas en el centro (estar centradas en el ser humano), para que puedan confiar en que la tecnología se utiliza de forma segura y conforme a la ley. , incluido el respeto de los derechos fundamentales.»

«Al mismo tiempo, dichas normas para la inteligencia artificial deben ser equilibradas, proporcionadas y no limitar ni obstaculizar innecesariamente el desarrollo tecnológico», continúa. «Esto es de especial importancia porque, aunque la inteligencia artificial ya está presente en muchos aspectos de la vida diaria de las personas, no es posible anticipar todos los posibles usos o aplicaciones de la misma que pueden ocurrir en el futuro».

Más recientemente, la CE ha comenzado a colaborar con miembros de la industria de forma voluntaria para elaborar reglas internas que permitan a las empresas y reguladores operar bajo las mismas reglas básicas acordadas. «[Google CEO Sundar Pichai] «Y estuve de acuerdo en que no podemos darnos el lujo de esperar hasta que la regulación de la IA sea realmente aplicable y trabajar junto con todos los desarrolladores de IA para desarrollar ya un pacto de IA de forma voluntaria antes de la fecha límite legal», dijo el jefe de industria de la Comisión Europea (CE), Thierry Breton. dijo en una declaración de mayo. La CE también ha entablado conversaciones similares con corporaciones con sede en Estados Unidos.

Desarrollando…



Source link-47