La FTC debería evitar que OpenAI lance nuevos modelos GPT, dice el grupo de políticas de AI


Un grupo de ética tecnológica centrado en la inteligencia artificial ha pedido a la Comisión Federal de Comercio que investigue a OpenAI por violar las reglas de protección del consumidor, argumentando que el lanzamiento de herramientas de generación de texto de IA por parte de la organización ha sido «parcial, engañoso y un riesgo para la seguridad pública».

El Centro de IA y Política Digital (CAIDP) presentó su denuncia hoy siguiendo el publicación de una carta abierta de alto perfil pidiendo una pausa en los grandes experimentos generativos de IA. El presidente de CAIDP, Marc Rotenberg, fue uno de los firmantes de la carta, junto con varios investigadores de IA y el cofundador de OpenAI, Elon Musk. De manera similar a esa carta, la queja pide que se desacelere el desarrollo de modelos generativos de IA e implementar una supervisión gubernamental más estricta.

La denuncia del CAIDP señala amenazas potenciales del modelo de texto generativo GPT-4 de OpenAI, que fue anunciado a mediados de marzo. Incluyen formas en que GPT-4 podría producir código malicioso y propaganda altamente personalizada, así como formas en que los datos de capacitación sesgados podrían generar estereotipos integrados o preferencias injustas de raza y género en cosas como la contratación. También señala importantes fallas de privacidad con la interfaz de producto de OpenAI, como un error reciente que expuso Historiales de OpenAI ChatGPT y posiblemente detalles de pago a otros usuarios.

«OpenAI lanzó GPT-4 al público para uso comercial con pleno conocimiento de estos riesgos».

OpenAI ha señalado abiertamente las amenazas potenciales de la generación de texto de IA, pero CAIDP argumenta que GPT-4 cruza una línea de daño al consumidor que debería generar una acción regulatoria. Busca responsabilizar a OpenAI por violar la Sección 5 de la Ley FTC, que prohíbe las prácticas comerciales desleales y engañosas. “OpenAI lanzó GPT-4 al público para uso comercial con pleno conocimiento de estos riesgos”, incluido el sesgo potencial y el comportamiento dañino, afirma la denuncia. también define alucinaciones de IA, o el fenómeno de los modelos generativos que maquillan confiadamente hechos inexistentes, como una forma de engaño. “ChatGPT promoverá publicidad y declaraciones comerciales engañosas”, advierte, lo que podría ponerlo bajo el control de la FTC.

En la demanda, CAIDP solicita a la FTC que detenga cualquier implementación comercial adicional de modelos GPT y requiera evaluaciones independientes de los modelos antes de futuras implementaciones. También solicita una herramienta de informes de acceso público similar a la que permite a los consumidores presentar denuncias de fraude. Y busca una reglamentación firme sobre las reglas de la FTC para los sistemas de IA generativa, basándose en la investigación y evaluación de herramientas de IA en curso, pero todavía relativamente informal, de la agencia.

Como señaló CAIDP, la FTC ha expresado interés en regular las herramientas de IA. Se advierte en los últimos años que los sistemas de IA sesgados podría iniciar una acción de ejecucióny en un evento conjunto esta semana con el Departamento de Justicia, la presidenta de la FTC, Lina Khan, dijo que la agencia buscaría señales de grandes empresas tecnológicas establecidas que intenten bloquear la competencia. Pero una investigación de OpenAI, uno de los principales actores en la carrera armamentista generativa de IA, marcaría una gran escalada en sus esfuerzos.



Source link-37