Microsoft gastó cientos de millones de dólares en una supercomputadora ChatGPT


Para construir la supercomputadora que impulsa los proyectos de OpenAI, Microsoft dice que conectó miles de unidades de procesamiento de gráficos (GPU) de Nvidia en su plataforma de computación en la nube Azure. A su vez, esto permitió a OpenAI entrenar modelos cada vez más potentes y «desbloquear las capacidades de IA» de herramientas como ChatGPT y Bing.

Scott Guthrie, vicepresidente de inteligencia artificial y nube de Microsoft, dijo que la compañía gastó varios cientos de millones de dólares en el proyecto, según un comunicado entregado a Bloomberg. Y si bien eso puede parecer una gota en el océano para Microsoft, que recientemente amplió su inversión multianual y multimillonaria en OpenAIciertamente demuestra que está dispuesto a invertir aún más dinero en el espacio de la IA.

Microsoft ya está trabajando para hacer que las capacidades de IA de Azure sean aún más poderosas

Microsoft ya está trabajando para hacer que las capacidades de IA de Azure sean aún más poderosas con el lanzamiento de sus nuevas máquinas virtuales que usan H100 de Nvidia y GPU A100 Tensor Core, así como redes Quantum-2 InfiniBand, un proyecto de ambas compañías burlado el año pasado. Según Microsoft, esto debería permitir que OpenAI y otras empresas que confían en Azure entrenen modelos de IA más grandes y complejos.

“Vimos que necesitaríamos construir clústeres de propósitos especiales enfocados en habilitar grandes cargas de trabajo de capacitación y OpenAI fue uno de los primeros puntos de prueba de eso”, dice Eric Boyd, vicepresidente corporativo de Azure AI de Microsoft, en un comunicado. “Trabajamos de cerca con ellos para saber cuáles son las cosas clave que estaban buscando mientras construían sus entornos de capacitación y cuáles eran las cosas clave que necesitaban.



Source link-37