El hambre de energía de ChatGPT podría desencadenar una revolución en las GPU


El costo de seguir avanzando en inteligencia artificial se está volviendo tan sorprendente como una alucinación por parte de ChatGPT. La demanda de chips gráficos conocidos como GPU necesarios para el entrenamiento de IA a gran escala ha disparado los precios de los componentes cruciales. OpenAI ha dicho que entrenar el algoritmo que ahora impulsa ChatGPT le costó a la empresa más de 100 millones de dólares. La carrera por competir en IA también significa que los centros de datos ahora están consumiendo cantidades preocupantes de energía.

La fiebre del oro de la IA hace que algunas nuevas empresas estén tramando planes audaces para crear nuevas palas computacionales para vender. Las GPU de Nvidia son, con diferencia, el hardware más popular para el desarrollo de IA, pero estos advenedizos argumentan que es hora de repensar radicalmente cómo se diseñan los chips de computadora.

Normal Computing, una startup fundada por veteranos de Google Brain y el laboratorio lunar X de Alphabet, ha desarrollado un prototipo simple que es un primer paso para reiniciar la informática desde los primeros principios.

Un chip de silicio convencional ejecuta cálculos manejando bits binarios (es decir, 0 y 1) que representan información. La unidad de procesamiento estocástico de Normal Computing, o SPU, explota las propiedades termodinámicas de los osciladores eléctricos para realizar cálculos utilizando fluctuaciones aleatorias que ocurren dentro de los circuitos. Eso puede generar muestras aleatorias útiles para cálculos o para resolver cálculos de álgebra lineal, que son omnipresentes en ciencia, ingeniería y aprendizaje automático.

Faris Sbahi, director ejecutivo de Normal Computing, explica que el hardware es muy eficiente y muy adecuado para manejar cálculos estadísticos. Algún día esto podría resultar útil para crear algoritmos de inteligencia artificial que puedan manejar la incertidumbre, quizás abordando la tendencia de los grandes modelos de lenguaje a «alucinar» resultados cuando no están seguros.

Sbahi dice que el reciente éxito de la IA generativa es impresionante, pero está lejos de ser la forma final de la tecnología. «Está bastante claro que hay algo mejor en términos de arquitecturas de software y también de hardware», afirma Sbahi. Él y sus cofundadores trabajaron anteriormente en computación cuántica e inteligencia artificial en Alphabet. La falta de progreso en el aprovechamiento de las computadoras cuánticas para el aprendizaje automático los impulsó a pensar en otras formas de explotar la física para impulsar los cálculos necesarios para la IA.

Otro equipo de ex investigadores cuánticos de Alphabet se fue para fundar Extropic, una empresa todavía sigilosa que parece tener un plan aún más ambicioso para utilizar la computación termodinámica para la IA. «Estamos intentando hacer toda la computación neuronal estrechamente integrada en un chip termodinámico analógico», dice Guillaume Verdon, fundador y director ejecutivo de Extropic. «Estamos tomando lo aprendido del software y hardware de computación cuántica y llevándolos al paradigma termodinámico completo». (Verdon fue revelado recientemente como la persona detrás de la popular cuenta de memes en X Beff Jezosasociado al llamado movimiento de aceleracionismo efectivo que promueve la idea de un progreso hacia una “singularidad tecnocapital”.)

La idea de que es necesario un replanteamiento más amplio de la informática puede estar ganando impulso a medida que la industria se topa con la dificultad de mantener la ley de Moore, la antigua predicción de que la densidad de los componentes de los chips continúa reduciéndose. «Incluso si la ley de Moore no se estuviera desacelerando, todavía tenemos un problema enorme, porque los tamaños de los modelos que OpenAI y otros han estado lanzando están creciendo mucho más rápido que la capacidad del chip», dice Peter McMahon, profesor de la Universidad de Cornell que trabaja en Nuevas formas de computación. En otras palabras, es posible que necesitemos explotar nuevas formas de computación para mantener el tren de la IA en marcha.





Source link-46