El grupo de ética de AI dice que ChatGPT viola las reglas de la FTC y pide una investigación


Una destacada organización de ética de AI presentó una queja ante la Comisión Federal de Comercio esta semana instando a la agencia a investigar Creador de ChatGPT OpenAI y detener su desarrollo de futuros grandes modelos de aprendizaje de idiomas. La denuncia, presentada por el Centro de IA y Política Digital (CAIDP), alega Modo GPT4 lanzado recientemente por OpenAIl es, «parcial, engañoso y un riesgo para la privacidad y la seguridad pública».

CAIDP emitió la denuncia apenas un día después de que un amplio grupo de más de 500 expertos en IA firmaron una carta abierta Los exigentes laboratorios de IA pausan de inmediato el desarrollo de LLM más potentes que GPT4 por las preocupaciones que podrían plantear, «riesgos profundos para la sociedad y la humanidad». Marc Rotenberg, presidente de CAIDP, fue uno de los firmantes de la carta. Dicho esto, la queja de CAIDP en su mayoría se aleja de las predicciones hiperbólicas de que la IA es una amenaza existencial para la humanidad. En cambio, la queja apunta a la propia guía declarada de la FTC sobre los sistemas de inteligencia artificial que dice que deben ser «transparentes, explicables, justos y empíricamente sólidos mientras fomentan la responsabilidad». GTP4, argumenta la demanda, no cumple con esos estándares.

La queja afirma que GPT4, que se lanzó a principios de este mes, se lanzó sin ninguna evaluación independiente y sin ninguna forma de que personas externas repliquen los resultados de OpenAI. CAIDP advirtió que el sistema podría usarse para difundir desinformación, contribuir a las amenazas de seguridad cibernética y potencialmente empeorar o «bloquear» sesgos que ya son bien conocidos por los modelos de IA.

“Es hora de que la FTC actúe”, escribió el grupo. “Debe haber una supervisión y evaluación independientes de los productos comerciales de IA que se ofrecen en los Estados Unidos”.

La FTC confirmó con Gizmodo que had recibió la queja pero se negó a comentar. OpenAI no respondió a nuestra solicitud de comentarios.

La FTC pone la mira en la IA

La FTC, para su crédito, ha estado pensando en voz alta sobre los peligros potenciales que los nuevos sistemas de inteligencia artificial podrían representar para los consumidores. en un serie de publicaciones de blog lanzado en los últimos meses, la agencia exploró las formas en que los chatbots u otros «medios sintéticos» pueden dificultar analizar lo que es real en línea, una bendición potencial para los estafadores y otros que buscan engañar a la gente en masa.

“Ya existe evidencia de que los estafadores pueden usar estas herramientas para generar contenido realista pero falso de manera rápida y económica, difundiéndolo a grandes grupos o apuntando a ciertas comunidades o individuos específicos”, escribió la FTC.

Sin embargo, esas preocupaciones están muy por debajo de la posible crisis a nivel de la sociedad descrita en la carta publicada esta semana por el Future of Life Institute. Expertos en IA, tanto aquellos que firmó la carta y otros que no lo hicieron, expresaron profundas divisiones en el nivel de preocupación sobre los futuros modelos LLM. Aunque casi todos los investigadores de IA preocupados están de acuerdo en que los legisladores deben ponerse al día y redactar reglas y regulaciones inteligentes para guiar el desarrollo de la IA, las mentes están divididas cuando se trata de atribuir inteligencia a nivel humano a lo que son esencialmente adivinos extremadamente buenos entrenados en potencialmente billones de parámetros.

“Lo que debería preocuparnos es que este tipo de publicidad puede exagerar demasiado las capacidades de los sistemas de IA y distraer la atención de preocupaciones apremiantes como la profunda dependencia de esta ola de IA en un pequeño puñado de empresas”, dijo el director general del AI Now Institute. Sarah Myers West le dijo previamente a Gizmodo.



Source link-45