Ilya Sutskever de OpenAI tiene un plan para mantener bajo control la IA súper inteligente


OpenAI se fundó con la promesa de construir inteligencia artificial que beneficie a toda la humanidad, incluso cuando esa IA se vuelva considerablemente más inteligente que sus creadores. Desde el debut de ChatGPT el año pasado y durante la reciente crisis de gobernanza de la compañía, sus ambiciones comerciales han sido más prominentes. Ahora, la compañía dice que un nuevo grupo de investigación que trabaja en la discusión sobre las IA superinteligentes del futuro está comenzando a dar frutos.

«AGI se está acercando muy rápidamente», dice Leopold Aschenbrenner, investigador de OpenAI involucrado con el equipo de investigación Superalignment establecido en julio. «Veremos modelos sobrehumanos, tendrán enormes capacidades y podrían ser muy, muy peligrosos, y todavía no tenemos los métodos para controlarlos». OpenAI ha dicho que dedicará una quinta parte de su potencia informática disponible al proyecto Superalignment.

Un artículo de investigación publicado hoy por OpenAI promociona los resultados de experimentos diseñados para probar una manera de permitir que un modelo de IA inferior guíe el comportamiento de uno mucho más inteligente sin hacerlo menos inteligente. Aunque la tecnología involucrada está lejos de superar la flexibilidad de los humanos, el escenario fue diseñado para representar un futuro en el que los humanos deban trabajar con sistemas de inteligencia artificial más inteligentes que ellos mismos.

Los investigadores de OpenAI examinaron el proceso, llamado supervisión, que se utiliza para ajustar sistemas como GPT-4, el gran modelo de lenguaje detrás de ChatGPT, para que sean más útiles y menos dañinos. Actualmente, esto implica que los humanos brinden información al sistema de inteligencia artificial sobre qué respuestas son buenas y cuáles son malas. A medida que avanza la IA, los investigadores están explorando cómo automatizar este proceso para ahorrar tiempo, pero también porque creen que puede resultar imposible para los humanos proporcionar retroalimentación útil a medida que la IA se vuelve más poderosa.

En un experimento de control que utilizó el generador de texto GPT-2 de OpenAI lanzado por primera vez en 2019 para enseñar GPT-4, el sistema más reciente se volvió menos capaz y similar al sistema inferior. Los investigadores probaron dos ideas para solucionar este problema. Uno implicó entrenar modelos progresivamente más grandes para reducir el rendimiento perdido en cada paso. En el otro, el equipo agregó un ajuste algorítmico a GPT-4 que permitió que el modelo más fuerte siguiera la guía del modelo más débil sin afectar su rendimiento tanto como sucedería normalmente. Esto resultó más eficaz, aunque los investigadores admiten que estos métodos no garantizan que el modelo más fuerte se comporte perfectamente y lo describen como un punto de partida para futuras investigaciones.

«Es fantástico ver a OpenAI abordar de manera proactiva el problema de controlar las IA sobrehumanas», dice Dan Hendryks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro en San Francisco dedicada a gestionar los riesgos de la IA. «Necesitaremos muchos años de esfuerzo dedicado para afrontar este desafío».



Source link-46