\n<\/aside>\n<\/p>\n
El lunes, Nvidia present\u00f3 el chip de n\u00facleo tensor Blackwell B200, la GPU de un solo chip m\u00e1s poderosa de la compa\u00f1\u00eda, con 208 mil millones de transistores, que seg\u00fan Nvidia puede reducir los costos operativos de inferencia de IA (como ejecutar ChatGPT) y el consumo de energ\u00eda hasta 25 veces en comparaci\u00f3n. al H100. La compa\u00f1\u00eda tambi\u00e9n present\u00f3 el GB200, un \u00absuperchip\u00bb que combina dos chips B200 y una CPU Grace para lograr un rendimiento a\u00fan mayor.<\/p>\n
La noticia surgi\u00f3 como parte de la conferencia anual GTC de Nvidia, que se llevar\u00e1 a cabo esta semana en el Centro de Convenciones de San Jos\u00e9. El director ejecutivo de Nvidia, Jensen Huang, pronunci\u00f3 el discurso de apertura el lunes por la tarde. \u00abNecesitamos GPU m\u00e1s grandes\u00bb, dijo Huang durante su discurso de apertura. La plataforma Blackwell permitir\u00e1 el entrenamiento de modelos de IA de billones de par\u00e1metros que har\u00e1n que los modelos de IA generativos actuales parezcan rudimentarios en comparaci\u00f3n, dijo. Como referencia, el GPT-3 de OpenAI, lanzado en 2020, inclu\u00eda 175 mil millones de par\u00e1metros. El recuento de par\u00e1metros es un indicador aproximado de la complejidad del modelo de IA.<\/p>\n
Nvidia nombr\u00f3 la arquitectura Blackwell en honor a David Harold Blackwell, un matem\u00e1tico que se especializ\u00f3 en teor\u00eda de juegos y estad\u00edstica y fue el primer acad\u00e9mico negro incluido en la Academia Nacional de Ciencias. La plataforma presenta seis tecnolog\u00edas para computaci\u00f3n acelerada, incluido un Transformer Engine de segunda generaci\u00f3n, NVLink de quinta generaci\u00f3n, RAS Engine, capacidades seguras de IA y un motor de descompresi\u00f3n para consultas aceleradas de bases de datos.<\/p>\n\nAgrandar
\/<\/span> Fotograf\u00eda de prensa del chip Grace Blackwell GB200, que combina dos GPU B200 con una CPU Grace en un solo chip.<\/div>\n<\/figcaption><\/figure>\nSe espera que varias organizaciones importantes, como Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI, adopten la plataforma Blackwell, y el comunicado de prensa de Nvidia est\u00e1 repleto de citas enlatadas de directores ejecutivos de tecnolog\u00eda (clave Clientes de Nvidia) como Mark Zuckerberg y Sam Altman elogian la plataforma.<\/p>\n
Las GPU, que antes solo estaban dise\u00f1adas para la aceleraci\u00f3n de juegos, son especialmente adecuadas para tareas de IA porque su arquitectura masivamente paralela acelera la inmensa cantidad de tareas de multiplicaci\u00f3n de matrices necesarias para ejecutar las redes neuronales actuales. Con el surgimiento de nuevas arquitecturas de aprendizaje profundo en la d\u00e9cada de 2010, Nvidia se encontr\u00f3 en una posici\u00f3n ideal para capitalizar la revoluci\u00f3n de la IA y comenz\u00f3 a dise\u00f1ar GPU especializadas solo para la tarea de acelerar los modelos de IA.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nEl enfoque de Nvidia en los centros de datos ha hecho que la empresa sea tremendamente rica y valiosa, y estos nuevos chips contin\u00faan la tendencia. Los ingresos por GPU para juegos de Nvidia (2.900 millones de d\u00f3lares en el \u00faltimo trimestre) son eclipsados \u200b\u200ben comparaci\u00f3n con los ingresos del centro de datos (18.400 millones de d\u00f3lares), y eso no muestra signos de detenerse.<\/p>\n