El CEO de NVIDIA, Jensen Huang, entrega la primera estación de IA DGX H200 del mundo a OpenAI


NVIDIA ha entregado la primera estación de IA DGX H200 del mundo a OpenAI, entregada nada menos que por el propio CEO Jensen Huang.

NVIDIA no busca detener su crecimiento masivo todavía, entrega la primera estación de IA DGX H200 para OpenAI para impulsar la próxima era de IA

en un X publicación de Greg Brockman, presidente y cofundador de OpenAI, se reveló que Team Green finalmente entregó el producto más poderoso de la empresa a OpenAI. Curiosamente, el CEO de NVIDIA, Jensen Huang, llegó para entregar lo que deberíamos llamar una maravilla tecnológica. El CEO de OpenAI, Sam Altman, y Greg Brockman también recibieron el paquete NVIDIA, lo que demuestra que la DGX H200 es realmente algo enorme que requiere asistentes de alto perfil.

Antes de entrar en lo que ofrece el DGX H200, analicemos la dinámica de la industria. Además de centrarse en el hecho de que OpenAI obtuvo acceso exclusivo al sistema de IA más potente del mundo, es interesante presenciar cómo las empresas luchan entre sí para conseguir hardware superior. Recientemente, hablamos un poco sobre las GPU Blackwell y cómo Meta realizó los primeros pedidos de la arquitectura de próxima generación a pesar de no haber sido lanzada a los mercados masivos. Por otro lado, tenemos OpenAI, que se centra en la construcción de centros de datos gigantescos con una valoración propuesta de 7 billones de dólares, pero no entraremos en eso más a fondo.

La imagen me dice dos cosas; La primera es que la competencia futura entre las empresas no son sus ingresos por IA sino la potencia informática que tienen a bordo. La segunda es que el hombre intermedio, que viste la icónica chaqueta de cuero, será el centro de atención de la industria desde hace bastante tiempo porque todas las empresas miran hacia NVIDIA para sus necesidades de IA. Ni siquiera podemos debatirlo, ya que el sólido ecosistema que Team Green ofrece a sus clientes es simplemente asombroso.

Fuente de la imagen: NVIDIA

Volviendo al DGX H200, esta bestia de máquina está impulsada por la destreza del HBM3E. Tiene capacidades de memoria de hasta 141 GB y hasta 4,8 TB/s de ancho de banda, que es 2,4 veces más ancho de banda y el doble de capacidad que la versión anterior. En una cobertura reciente, destacamos la superioridad del H200 sobre los mercados y cómo logró ofrecer casi el doble de rendimiento en aplicaciones de IA como MLPerf v4.0, lo que muestra cuán dominantes son estas piezas de hardware en el segmento de mercado.

Curiosamente, DGX H200 se basa en la arquitectura Hopper, a la que han sucedido las nuevas GPU Blackwell B100/B200. Estos chips de IA de próxima generación ofrecen un mayor rendimiento y capacidades de IA y es probable que los veamos en acción a finales de este año.

Comparte esta historia

Facebook

Gorjeo





Source link-29