El CEO de Google DeepMind, Demis Hassabis, dice que su próximo algoritmo eclipsará a ChatGPT


En 2014, Google adquirió DeepMind después de demostrar resultados sorprendentes con un software que utilizaba el aprendizaje por refuerzo para dominar videojuegos simples. Durante los siguientes años, DeepMind mostró cómo la técnica hace cosas que alguna vez parecieron exclusivamente humanas, a menudo con una habilidad sobrehumana. Cuando AlphaGo venció al campeón de Go Lee Sedol en 2016, muchos expertos en inteligencia artificial se sorprendieron porque creían que pasarían décadas antes de que las máquinas se volvieran competentes en un juego de tanta complejidad.

Nuevo pensamiento

Entrenar un modelo de lenguaje grande como GPT-4 de OpenAI implica alimentar grandes cantidades de texto seleccionado de libros, páginas web y otras fuentes en un software de aprendizaje automático conocido como transformador. Utiliza los patrones en esos datos de entrenamiento para volverse competente en la predicción de las letras y palabras que deben seguir a un fragmento de texto, un mecanismo simple que resulta sorprendentemente poderoso para responder preguntas y generar texto o código.

Un paso adicional importante para hacer ChatGPT y modelos de lenguaje con capacidades similares es usar el aprendizaje por refuerzo basado en los comentarios de los humanos sobre las respuestas de un modelo de IA para perfeccionar su rendimiento. La profunda experiencia de DeepMind con el aprendizaje por refuerzo podría permitir a sus investigadores dotar a Gemini de capacidades novedosas.

Hassabis y su equipo también podrían intentar mejorar la tecnología de modelo de lenguaje grande con ideas de otras áreas de IA. Los investigadores de DeepMind trabajan en áreas que van desde la robótica hasta la neurociencia y, a principios de esta semana, la compañía demostró un algoritmo capaz de aprender a realizar tareas de manipulación con una amplia gama de diferentes brazos robóticos.

Se espera que aprender de la experiencia física del mundo, como lo hacen los humanos y los animales, sea importante para hacer que la IA sea más capaz. Algunos expertos en IA consideran que el hecho de que los modelos de lenguaje aprendan sobre el mundo de manera indirecta, a través del texto, es una limitación importante.

Futuro turbio

Hassabis tiene la tarea de acelerar los esfuerzos de inteligencia artificial de Google y, al mismo tiempo, gestionar riesgos desconocidos y potencialmente graves. Los recientes y rápidos avances en los modelos de lenguaje han hecho que muchos expertos en IA, incluidos algunos que construyen los algoritmos, se preocupen por si la tecnología se utilizará para usos malévolos o se volverá difícil de controlar. Algunos expertos en tecnología incluso han pedido una pausa en el desarrollo de algoritmos más potentes para evitar crear algo peligroso.

Hassabis dice que los extraordinarios beneficios potenciales de la IA, como el descubrimiento científico en áreas como la salud o el clima, hacen que sea imperativo que la humanidad no deje de desarrollar la tecnología. También cree que ordenar una pausa no es práctico, ya que sería casi imposible de hacer cumplir. “Si se hace correctamente, será la tecnología más beneficiosa para la humanidad”, dice sobre la IA. “Tenemos que ir tras esas cosas con audacia y valentía”.

Eso no significa que Hassabis abogue por que el desarrollo de la IA avance precipitadamente. DeepMind ha estado explorando los riesgos potenciales de la IA desde antes de que apareciera ChatGPT, y Shane Legg, uno de los cofundadores de la empresa, ha dirigido un grupo de «seguridad de la IA» dentro de la empresa durante años. Hassabis se unió a otras figuras de inteligencia artificial de alto perfil el mes pasado al firmar una declaración en la que advierten que la inteligencia artificial algún día podría representar un riesgo comparable a una guerra nuclear o una pandemia.

Uno de los mayores desafíos en este momento, dice Hassabis, es determinar cuáles son los riesgos probables de una IA más capaz. “Creo que se necesita realizar más investigación en el campo, con mucha urgencia, en cosas como las pruebas de evaluación”, dice, para determinar qué tan capaces y controlables son los nuevos modelos de IA. Con ese fin, dice, DeepMind puede hacer que sus sistemas sean más accesibles para los científicos externos. “Me encantaría ver que el mundo académico tuviera acceso temprano a estos modelos de vanguardia”, dice, un sentimiento que, si se sigue, podría ayudar a abordar las preocupaciones de que los expertos fuera de las grandes empresas se están quedando fuera de la investigación más reciente de IA.

¿Qué tan preocupado deberías estar? Hassabis dice que nadie sabe con certeza si la IA se convertirá en un gran peligro. Pero está seguro de que si el progreso continúa al ritmo actual, no hay mucho tiempo para desarrollar salvaguardas. “Puedo ver bien el tipo de cosas que estamos incorporando a la serie Gemini, y no tenemos motivos para creer que no funcionarán”, dice.



Source link-46