Elon Musk, el cofundador de Apple, Steve Wozniak, y el CEO de Stability AI se encuentran entre las principales figuras de la industria tecnológica en general que han firmado una carta abierta en la que piden una «pausa» de seis meses en el desarrollo de sistemas avanzados de inteligencia artificial, incluido ChatGPT.
La carta fue publicada por el Future of Life Institute. (se abre en una pestaña nueva)una organización sin fines de lucro, y cuenta con más de 1100 signatarios de todo el mundo académico y tecnológico en el momento de escribir este artículo.
«Los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad», dice la carta. “Los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”.
En consecuencia, la carta argumenta que la industria debería hacer una pausa para pensar antes de desarrollar algo más poderoso que GPT-4. Si eso no sucede voluntariamente, los gobiernos deberían intervenir.
«Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, Los gobiernos deberían intervenir e instituir una moratoria».
Entre los principales signatarios se encuentran Emad Mostaque, fundador y director ejecutivo de Stability AI, el equipo detrás del modelo de generación de texto a imagen Stable Diffusion, Evan Sharp, cofundador de Pinterest, Chris Larson, cofundador de la empresa de criptomonedas Ripple , aprendizaje profundo Yoshua Bengio y Connor Leahy, director ejecutivo de AI lab Conjecture.
Por supuesto, los cínicos podrían sugerir que muchos de los signatarios podrían querer algo de tiempo para ponerse al día con la competencia. Pero muchos más no tienen nada obvio que ganar de inmediato.
Además, es innegable que en los últimos meses se han producido desarrollos explosivos en lo que respecta a los grandes modelos de IA de estilo GPT. Solo tomando los modelos GPT de Open AI, el primer modelo GPT-3 como se ve en ChatGPT estaba limitado a la entrada y salida de texto. GPT-4, sin embargo, es multimodal y admite texto, audio, video e imágenes.
Rápidamente se desarrollaron nuevos complementos que les dieron a los modelos «ojos» y «oídos», lo que permitió a los modelos de IA enviar correos electrónicos, ejecutar código y hacer cosas en el mundo real, como reservar vuelos a través del acceso a Internet.
Las habilidades de razonamiento de GPT-4 también son un gran paso adelante en ChatGPT y GPT-3. Por ejemplo, ChatGPT obtiene puntajes en el 10 % inferior en los exámenes de derecho de EE. UU., mientras que GPT-4 obtiene puntajes en el 90 % superior. (se abre en una pestaña nueva).
GPT-4 ahora se ha utilizado para crear extensiones de Google Chrome y aplicaciones para iPhone, esta última desde cero y ahora disponible en la tienda oficial de aplicaciones. (se abre en una pestaña nueva). GPT-4 también ha codificado con éxito un motor de juego 3D básico (se abre en una pestaña nueva) similar al Doom original. La gente incluso ha dado a los modelos GPT la tarea de crear estrategias de inversión y luego implementarlas.
No es difícil, por lo tanto, ver cómo estos modelos pueden tener un gran impacto muy rápidamente en el mundo real, incluso antes de que siquiera pienses en plantear la pregunta de qué sucede si se vuelven sensibles. En ese sentido, en un artículo escrito por los creadores de GPT-4 (se abre en una pestaña nueva)se plantean preocupaciones de que el modelo en sí podría desarrollarse y perseguir fines indeseables o peligrosos.
«Algunos que son particularmente preocupantes son la capacidad de crear y actuar en planes a largo plazo,[62] para acumular poder y recursos («búsqueda de poder»), y exhibir un comportamiento que es cada vez más «agente».[64] Agentic en este contexto no pretende humanizar los modelos de lenguaje o referirse a la sensibilidad, sino que se refiere a los sistemas caracterizados por la capacidad de, por ejemplo, lograr objetivos que pueden no haber sido concretamente especificados y que no han aparecido en el entrenamiento; centrarse en lograr objetivos específicos y cuantificables; y hacer una planificación a largo plazo. Ya existe alguna evidencia de tal comportamiento emergente en los modelos», dice el artículo.
Mientras tanto, Microsoft dice que su último modelo GPT-4 está mostrando «chispas» de inteligencia artificial general (se abre en una pestaña nueva). De todos modos, el problema principal aquí es seguramente que estos modelos se están liberando a gran escala en el público en todo, desde búsquedas en Bing hasta correo electrónico y herramientas de oficina.
Puede que todo esté bien. Pero, igualmente, el alcance de las consecuencias no deseadas actualmente parece ser casi infinito. Y eso da un poco de miedo, con las condiciones habituales de que damos la bienvenida a cualquier nuevo señor supremo que pueda surgir. Ya sabes, por si acaso.