La tecnología de inteligencia artificial «puede salir bastante mal», dice el CEO de OpenAI al Senado


Agrandar / El CEO de OpenAI, Sam Altman, testifica sobre las reglas de IA ante el Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley el 16 de mayo de 2023 en Washington, DC.

Imágenes Getty | Gana McNamee

El CEO de OpenAI, Sam Altman, testificó hoy en el Senado de los EE. UU. sobre los peligros potenciales de la tecnología de inteligencia artificial fabricada por su empresa y otras, e instó a los legisladores a imponer requisitos de licencia y otras regulaciones a las organizaciones que fabrican sistemas avanzados de IA como GPT-4 de OpenAI.

“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, dijo Altman. «Por ejemplo, el gobierno de EE. UU. podría considerar una combinación de requisitos de licencia y prueba para el desarrollo y lanzamiento de modelos de IA por encima de un umbral de capacidades».

Si bien Altman promocionó los beneficios de AI, dijo que OpenAI está «bastante preocupado» de que las elecciones se vean afectadas por el contenido generado por AI. «Dado que nos enfrentaremos a una elección el próximo año y estos modelos están mejorando, creo que esta es un área importante de preocupación… Creo que alguna regulación sería bastante sabia sobre este tema», dijo Altman.

Altman habló en una audiencia celebrada por el Subcomité de Privacidad, Tecnología y Leyes del Comité Judicial del Senado. También testificó la directora de privacidad y confianza de IBM, Christina Montgomery.

«IBM insta al Congreso a adoptar un enfoque de regulación de precisión para la IA», dijo Montgomery. «Esto significa establecer reglas para regir el despliegue de IA en casos de uso específicos, sin regular la tecnología en sí». Montgomery dijo que el Congreso debería definir claramente los riesgos de la IA e imponer «reglas diferentes para diferentes riesgos», con las reglas más estrictas «aplicadas a los casos de uso con los mayores riesgos para las personas y la sociedad».

La tecnología de inteligencia artificial «puede salir bastante mal»

Varios legisladores comentaron sobre la voluntad de OpenAI e IBM de enfrentar nuevas reglas, y el senador Dick Durbin (D-Ill.) dijo que es notable que las grandes empresas acudieran al Senado para «suplicarnos que las regulemos».

Altman sugirió que el Congreso forme una nueva agencia que otorgue licencias a la tecnología de inteligencia artificial «por encima de cierta escala de capacidades y podría retirar esa licencia para garantizar el cumplimiento de los estándares de seguridad». Antes de que un sistema de IA se lance al público, debe haber auditorías independientes por parte de «expertos que puedan decir que el modelo cumple o no con estos umbrales de seguridad establecidos y estos porcentajes en las preguntas X o Y», dijo.

Altman dijo que le preocupa que la industria de la IA pueda «causar un daño significativo al mundo».

«Creo que si esta tecnología sale mal, puede salir bastante mal, y queremos expresarnos al respecto», dijo Altman. “Queremos trabajar con el gobierno para evitar que eso suceda”.

Altman dijo que no cree que se deban aplicar requisitos onerosos a las empresas e investigadores cuyos modelos son mucho menos avanzados que los de OpenAI. Sugirió que el Congreso «defina umbrales de capacidad» y coloque modelos de IA que puedan realizar ciertas funciones en el estricto régimen de licencias.

Como ejemplos, Altman dijo que podrían requerirse licencias para modelos de IA «que puedan persuadir, manipular, influir en el comportamiento de una persona, sus creencias» o «ayudar a crear nuevos agentes biológicos». Altman dijo que sería más sencillo exigir una licencia para cualquier sistema que esté por encima de un cierto umbral de potencia de cómputo, pero que preferiría trazar la línea regulatoria en función de capacidades específicas.

OpenAI consta de entidades sin fines de lucro y con fines de lucro. Altman dijo que el modelo GPT-4 de OpenAI es «más probable que responda de manera útil y veraz y rechace solicitudes dañinas que cualquier otro modelo de capacidad similar», en parte debido a las extensas pruebas y auditorías previas al lanzamiento:

Antes de lanzar cualquier sistema nuevo, OpenAI realiza pruebas exhaustivas, contrata a expertos externos para realizar revisiones detalladas y auditorías independientes, mejora el comportamiento del modelo e implementa sistemas sólidos de seguridad y monitoreo. Antes de lanzar GPT-4, nuestro último modelo, pasamos más de seis meses realizando evaluaciones exhaustivas, equipos rojos externos y pruebas de capacidad peligrosa.

Altman también dijo que las personas deberían poder optar por que sus datos personales no se utilicen para entrenar modelos de IA. OpenAI anunció el mes pasado que los usuarios de ChatGPT ahora pueden desactivar el historial de chat para evitar que las conversaciones se utilicen para entrenar modelos de IA.

No se debe «engañar» a las personas para que interactúen con la IA

Montgomery presentó requisitos de transparencia y dijo que los consumidores deberían saber cuándo interactúan con la IA. «Ninguna persona en ningún lugar debe ser engañada para que interactúe con un sistema de IA… la era de la IA no puede ser otra era de moverse rápido y romper cosas», dijo.

También dijo que Estados Unidos debería responsabilizar rápidamente a las empresas por implementar IA «que difunde información errónea sobre cosas como las elecciones».

Los senadores escucharon a Gary Marcus, un autor que fundó dos empresas de inteligencia artificial y aprendizaje automático y es profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York. Dijo en la audiencia de hoy que la IA puede crear mentiras persuasivas y brindar consejos médicos dañinos. Marcus también criticó a Microsoft por no retirar inmediatamente el chatbot de Sydney después de que exhibiera un comportamiento alarmante.

«Sydney claramente tenía problemas… lo habría retirado temporalmente del mercado y no lo hicieron», dijo Marcus. «Esa fue una llamada de atención para mí y un recordatorio de que incluso si tienes empresas como OpenAI que es una organización sin fines de lucro… otras personas pueden comprar esas empresas y hacer lo que quieran con ellas. Tal vez tengamos un conjunto estable de actores ahora, pero la cantidad de poder que estos sistemas tienen para dar forma a nuestras opiniones y vidas es realmente significativa, y eso ni siquiera entra en los riesgos de que alguien pueda reutilizarlos deliberadamente para todo tipo de malos propósitos».



Source link-49