{"id":883307,"date":"2023-11-13T21:09:38","date_gmt":"2023-11-13T21:09:38","guid":{"rendered":"https:\/\/magazineoffice.com\/la-proxima-generacion-de-chips-de-supercomputadora-con-ia-de-nvidia-ya-esta-aqui\/"},"modified":"2023-11-13T21:09:42","modified_gmt":"2023-11-13T21:09:42","slug":"la-proxima-generacion-de-chips-de-supercomputadora-con-ia-de-nvidia-ya-esta-aqui","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-proxima-generacion-de-chips-de-supercomputadora-con-ia-de-nvidia-ya-esta-aqui\/","title":{"rendered":"La pr\u00f3xima generaci\u00f3n de chips de supercomputadora con IA de NVIDIA ya est\u00e1 aqu\u00ed"},"content":{"rendered":"
\n<\/p>\n
NVIDIA ha lanzado su pr\u00f3xima generaci\u00f3n de chips de supercomputadora de IA que probablemente desempe\u00f1ar\u00e1n un papel importante en futuros avances en aprendizaje profundo y modelos de lenguajes grandes (LLM) como el GPT-4 de OpenAI, anunci\u00f3 la compa\u00f1\u00eda. La tecnolog\u00eda representa un salto significativo con respecto a la \u00faltima generaci\u00f3n y est\u00e1 lista para usarse en centros de datos y supercomputadoras, trabajando en tareas como predicci\u00f3n del tiempo y el clima, descubrimiento de f\u00e1rmacos, computaci\u00f3n cu\u00e1ntica y m\u00e1s.<\/p>\n
El producto clave es la GPU HGX H200 basada en la arquitectura \u00abHopper\u00bb de NVIDIA, un reemplazo de la popular GPU H100. Es el primer chip de la compa\u00f1\u00eda que utiliza memoria HBM3e, que es m\u00e1s r\u00e1pida y tiene m\u00e1s capacidad, lo que lo hace m\u00e1s adecuado para modelos de lenguajes grandes. \u00abCon HBM3e, la NVIDIA H200 ofrece 141 GB de memoria a 4,8 terabytes por segundo, casi el doble de capacidad y 2,4 veces m\u00e1s ancho de banda en comparaci\u00f3n con su predecesora, la NVIDIA A100\u00bb, escribi\u00f3 la compa\u00f1\u00eda.<\/p>\n
En t\u00e9rminos de beneficios para la IA, NVIDIA dice que el HGX H200 duplica la velocidad de inferencia en Llama 2, un LLM de 70 mil millones de par\u00e1metros, en comparaci\u00f3n con el H100. Estar\u00e1 disponible en configuraciones de 4 y 8 v\u00edas que son compatibles tanto con el software como con el hardware de los sistemas H100. Funcionar\u00e1 en todo tipo de centro de datos (local, en la nube, en la nube h\u00edbrida y en el borde) y ser\u00e1 implementado por Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, entre otros. Est\u00e1 previsto que llegue en el segundo trimestre de 2024.<\/p>\n