Esta mañana, el Subcomité de Privacidad, Tecnología y Leyes del Senado celebró una audiencia con expertos en inteligencia artificial, incluido el director ejecutivo de OpenAI, Sam Altman, para analizar los peligros de la inteligencia artificial y cómo se debe regular. (se abre en una pestaña nueva)
La audiencia de casi tres horas (se abre en una pestaña nueva) contó con los adornos habituales de audiencia del comité, con legisladores haciendo preguntas difíciles y una cantidad predecible de teatro. Aquí hay algunos momentos que se destacaron:
El presidente del subcomité, el senador Richard Blumenthal, comenzó la audiencia reproduciendo una grabación de él mismo dando sus comentarios de apertura. Sin embargo, resultó que el discurso no era realmente él, sino una herramienta de clonación de voz de IA entrenada con sus discursos anteriores. El senador le había pedido a la IA generativa que escribiera comentarios de apertura basados en su historial de defensa de los derechos del consumidor y la privacidad de los datos. Si bien bromeó, el senador Blumenthal cambió de tono para comentar sobre los peligros potenciales de que las herramientas de clonación de voz caigan en las manos equivocadas. (se abre en una pestaña nueva)
Continuando con el tema de la IA haciendo su trabajo, la senadora Marsha Blackburn de Tennessee dijo que le había preguntado a ChatGPT si el Congreso debería regular la IA. El chatbot de IA dio «cuatro pros, cuatro contras y, en última instancia, la decisión recae en el Congreso y merece una consideración cuidadosa», dijo. Luego presionó a Altman sobre los esfuerzos de OpenAI para proteger el trabajo de los artistas de la infracción de derechos de autor.
Sobre ese tema, Altman sugirió que los propietarios de contenido deberían recibir un «beneficio positivo significativo» si sus materiales protegidos por derechos de autor se utilizan para entrenar modelos de IA. También dijo que los artistas deberían tener la opción de negarse a permitir que sus voces, canciones, imágenes y semejanzas se utilicen para entrenar IA. OpenAI está creando un nuevo sistema de derechos de autor para pagar a los artistas cada vez que las obras generadas por IA incorporen su material.
El senador Lindsey Graham de Carolina del Sur le preguntó a Altman sobre el uso militar potencial de la IA, específicamente si «la IA podría crear una situación en la que un dron pudiera seleccionar un objetivo por sí mismo». Altman respondió que piensa que «no deberíamos permitir eso». Cuando se le presionó más sobre si se puede hacer, Altman dijo: «Claro».
Impresionante.
En un intercambio algo extraño, el senador John Kennedy de Luisiana le preguntó a Altman si ganaba mucho dinero. Altman respondió que paga lo suficiente por el seguro médico pero que «no tiene capital en OpenAI» y que está haciendo el trabajo porque le encanta. El Senador sugirió en broma que Altman «consiguiera un abogado o un agente».
Es interesante ver al gobierno de EE. UU. al menos investigar el daño potencial que las empresas de IA pueden causar si no se regulan. El Parlamento Europeo fue un poco más allá la semana pasada, votando una propuesta (se abre en una pestaña nueva) para «garantizar que los sistemas de IA sean supervisados por personas, sean seguros, transparentes, rastreables, no discriminatorios y respetuosos con el medio ambiente», aunque por ahora es una pregunta abierta cómo se hará cumplir exactamente todo eso. De manera similar, el Dr. Geoffrey Hinton, el «padrino del aprendizaje profundo (se abre en una pestaña nueva)«, quien recientemente dejó su puesto como investigador de IA en Google, también advirtió a principios de mayo que tales sistemas no deberían ampliarse más «hasta que hayan entendido si pueden controlarlo».
Por diversión, le pregunté a ChatGPT si la audiencia del subcomité del Senado de hoy sobre la IA era buena para la industria de la IA, y me dijo que el impacto puede no ser «aparente de inmediato», pero tiene el «potencial de ser una fuerza positiva para el desarrollo». y el uso responsable de la IA en el futuro».
Esa es una buena respuesta política, creo. ¿Pero me estaba diciendo lo que quería escuchar? Ya sabes, ya que a veces los chatbots de IA mienten directamente a las personas. (se abre en una pestaña nueva)