Grupo de consumidores pide a la UE que investigue urgentemente «los riesgos de la IA generativa»


Los reguladores europeos se encuentran en una encrucijada sobre cómo se regulará la IA (y, en última instancia, cómo se utilizará comercial y no comercialmente) en la región, y hoy el grupo de consumidores más grande de la UE, BEUC, intervino con su propia posición: dejar de dar largas y “lanzar investigaciones urgentes sobre los riesgos de la IA generativa” ahora, dijo.

“La IA generativa como ChatGPT ha abierto todo tipo de posibilidades para los consumidores, pero existen serias preocupaciones sobre cómo estos sistemas pueden engañar, manipular y dañar a las personas. También se pueden usar para difundir desinformación, perpetuar los sesgos existentes que amplifican la discriminación o para cometer fraude”, dijo Ursula Pachl, directora general adjunta de BEUC, en un comunicado. “Hacemos un llamado a las autoridades de seguridad, datos y protección al consumidor para que inicien investigaciones ahora y no esperen sin hacer nada a que haya ocurrido todo tipo de daño al consumidor antes de tomar medidas. Estas leyes se aplican a todos los productos y servicios, ya sea que funcionen con IA o no, y las autoridades deben hacerlas cumplir”.

La BEUC, que representa a las organizaciones de consumidores en 13 países de la UE, emitió el llamado coincidiendo con un informe publicado hoy por uno de sus miembros, Forbrukerrådet en Noruega.

Ese informe noruego es inequívoco en su posición: la IA plantea daños al consumidor (el título del informe lo dice todo: «Fantasma en la máquina: abordar los daños al consumidor de la IA generativa») y plantea numerosos problemas.

Si bien algunos tecnólogos han hecho sonar las alarmas en torno a la IA como instrumento de extinción humana, el debate en Europa se ha centrado más directamente en torno a los impactos de la IA en áreas como el acceso equitativo a los servicios, la desinformación y la competencia.

Destaca, por ejemplo, cómo «ciertos desarrolladores de IA, incluidas las grandes empresas tecnológicas» han cerrado los sistemas del escrutinio externo, lo que dificulta ver cómo se recopilan los datos o cómo funcionan los algoritmos; el hecho de que algunos sistemas producen información incorrecta tan alegremente como lo hacen con resultados correctos, sin que los usuarios a menudo se den cuenta de cuál podría ser; IA diseñada para engañar o manipular a los usuarios; el problema del sesgo basado en la información que se alimenta a un modelo de IA en particular; y seguridad, específicamente cómo la IA podría armarse para estafar a las personas o violar los sistemas.

Aunque el lanzamiento de ChatGPT de OpenAI definitivamente ha colocado a la IA y el potencial de su alcance en la conciencia pública, el enfoque de la UE sobre el impacto de la IA no es nuevo. Declaró debatir cuestiones de «riesgo» en 2020, aunque esos esfuerzos iniciales se presentaron como base para aumentar la «confianza» en la tecnología.

Para 2021, hablaba más específicamente de aplicaciones de IA de «alto riesgo», y unas 300 organizaciones se unieron para opinar y abogar por prohibir por completo algunas formas de IA.

Los sentimientos se han vuelto más críticos con el tiempo, a medida que la UE trabaja a través de sus leyes regionales. La semana pasada, la jefa de competencia de la UE, Margarethe Vestager, habló específicamente de cómo la IA presenta riesgos de sesgo cuando se aplica en áreas críticas como servicios financieros como hipotecas y otras solicitudes de préstamos.

Sus comentarios se produjeron justo después de que la UE aprobara su Ley oficial de IA, que divide provisionalmente las aplicaciones de IA en categorías como riesgo inaceptable, alto y limitado, cubriendo una amplia gama de parámetros para determinar en qué categoría se encuentran.

La Ley de IA, cuando se implemente, será el primer intento mundial de tratar de codificar algún tipo de comprensión y cumplimiento legal sobre cómo se usa la IA comercial y no comercial.

El próximo paso en el proceso es que la UE se comprometa con los países individuales de la UE para determinar qué forma final tomará la ley, específicamente para identificar qué (y quién) encajaría en sus categorías y qué no. La pregunta será qué tan fácilmente los diferentes países se ponen de acuerdo. La UE quiere finalizar este proceso para fines de este año, dijo.

“Es crucial que la UE haga que esta ley sea lo más estricta posible para proteger a los consumidores”, dijo Pachl en su declaración. “Todos los sistemas de IA, incluida la IA generativa, necesitan el escrutinio público, y las autoridades públicas deben reafirmar el control sobre ellos. Los legisladores deben exigir que el resultado de cualquier sistema generativo de IA sea seguro, justo y transparente para los consumidores”.

La BEUC es conocida por intervenir en momentos críticos y por hacer llamados influyentes que reflejan la dirección que finalmente toman los reguladores. Fue una de las primeras voces, por ejemplo, en contra de Google en las investigaciones antimonopolio a largo plazo contra el gigante de las búsquedas y los dispositivos móviles, interviniendo años antes de que se tomaran medidas contra la empresa. Sin embargo, ese ejemplo subraya algo más: el debate sobre la IA y sus impactos, y el papel que podría desempeñar la regulación en eso, probablemente será largo.



Source link-48