Para construir una mejor supercomputadora con inteligencia artificial, que se haga la luz


GlobalFoundries, una empresa que fabrica chips para otros, incluidos AMD y General Motors, anunció previamente una asociación con Lightmatter. Harris dice que su empresa está “trabajando con las empresas de semiconductores más grandes del mundo, así como con los hiperescaladores”, refiriéndose a las empresas de nube más grandes como Microsoft, Amazon y Google.

Si Lightmatter u otra empresa pueden reinventar el cableado de proyectos gigantes de IA, podría desaparecer un cuello de botella clave en el desarrollo de algoritmos más inteligentes. El uso de más computación fue fundamental para los avances que condujeron al ChatGPT, y muchos investigadores de IA consideran que una mayor ampliación del hardware es crucial para los avances futuros en el campo y para las esperanzas de alcanzar alguna vez el objetivo vagamente especificado de la tecnología artificial. Inteligencia general, o AGI, es decir, programas que pueden igualar o superar la inteligencia biológica en todos los sentidos.

Vincular un millón de chips con luz podría permitir algoritmos varias generaciones más allá de la vanguardia actual, dice Nick Harris, director ejecutivo de Lightmatter. «La aprobación permitirá los algoritmos AGI», sugiere con confianza.

Los grandes centros de datos que se necesitan para entrenar algoritmos de IA gigantes suelen consistir en bastidores llenos de decenas de miles de computadoras que ejecutan chips de silicio especializados y un espagueti de conexiones, en su mayoría eléctricas, entre ellas. Mantener ciclos de entrenamiento para IA en tantos sistemas, todos conectados por cables e interruptores, es una enorme tarea de ingeniería. La conversión entre señales electrónicas y ópticas también impone límites fundamentales a la capacidad de los chips para ejecutar cálculos como uno solo.

El enfoque de Lightmatter está diseñado para simplificar el complicado tráfico dentro de los centros de datos de IA. «Normalmente tienes un montón de GPU, y luego una capa de conmutadores, y una capa de conmutadores, y una capa de conmutadores, y tienes que atravesar ese árbol» para comunicar entre dos GPU, dice Harris. En un centro de datos conectado por Passage, dice Harris, cada GPU tendría una conexión de alta velocidad con todos los demás chips.

El trabajo de Lightmatter en Passage es un ejemplo de cómo el reciente florecimiento de la IA ha inspirado a empresas grandes y pequeñas a intentar reinventar el hardware clave detrás de avances como ChatGPT de OpenAI. Nvidia, el proveedor líder de GPU para proyectos de IA, celebró su conferencia anual el mes pasado, donde el director ejecutivo Jensen Huang presentó el último chip de la compañía para entrenar IA: una GPU llamada Blackwell. Nvidia venderá la GPU en un “superchip” que consta de dos GPU Blackwell y un procesador de CPU convencional, todos conectados mediante la nueva tecnología de comunicaciones de alta velocidad de la compañía llamada NVLink-C2C.

La industria de los chips es famosa por encontrar formas de extraer más potencia informática de los chips sin hacerlos más grandes, pero Nvidia decidió contrarrestar esa tendencia. Las GPU Blackwell dentro del superchip de la compañía son dos veces más potentes que sus predecesoras, pero se fabrican atornillando dos chips, lo que significa que consumen mucha más energía. Esa compensación, además de los esfuerzos de Nvidia por unir sus chips con enlaces de alta velocidad, sugiere que las actualizaciones de otros componentes clave para las supercomputadoras de IA, como la propuesta por Lightmatter, podrían volverse más importantes.



Source link-46