{"id":111479,"date":"2022-08-21T21:09:59","date_gmt":"2022-08-21T21:09:59","guid":{"rendered":"https:\/\/magazineoffice.com\/nvidia-hablara-sobre-la-gpu-hopper-y-la-arquitectura-de-cpu-grace-en-hot-chips-34\/"},"modified":"2022-08-21T21:10:03","modified_gmt":"2022-08-21T21:10:03","slug":"nvidia-hablara-sobre-la-gpu-hopper-y-la-arquitectura-de-cpu-grace-en-hot-chips-34","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nvidia-hablara-sobre-la-gpu-hopper-y-la-arquitectura-de-cpu-grace-en-hot-chips-34\/","title":{"rendered":"NVIDIA hablar\u00e1 sobre la GPU Hopper y la arquitectura de CPU Grace en Hot Chips 34"},"content":{"rendered":"


\n<\/p>\n

\n

NVIDIA revelar\u00e1 nuevos detalles de su Hopper GPU y Grace CPU durante la pr\u00f3xima iteraci\u00f3n de Hot Chips (24) en la pr\u00f3xima semana. Ingenieros s\u00e9nior de la empresa explicar\u00e1n las innovaciones en computaci\u00f3n acelerada para centros de datos y sistemas modernos para redes perimetrales con temas que se centran en la CPU Grace, la GPU Hopper, el conmutador NVLink y el m\u00f3dulo Jetson Orin.<\/p>\n

NVIDIA revelar\u00e1 detalles sobre la GPU Hopper de pr\u00f3xima generaci\u00f3n y la CPU Grace en Hot Chips 34<\/h2>\n

Hot Chips es un evento anual que re\u00fane a arquitectos de sistemas y procesadores y permite que las empresas discutan detalles, como detalles t\u00e9cnicos o el rendimiento actual de sus productos. NVIDIA planea discutir el primer procesador basado en servidor de la compa\u00f1\u00eda y la nueva tarjeta gr\u00e1fica Hopper. El NVSwitch interconecta el chip y el sistema Jetson Orin de la empresa en un m\u00f3dulo o SoM.<\/p>\n

<\/figure>\n

Las cuatro presentaciones durante el evento de dos d\u00edas ofrecer\u00e1n una visi\u00f3n interna de c\u00f3mo la plataforma de la empresa lograr\u00e1 un mayor rendimiento, eficiencia, escala y seguridad.<\/p>\n

NVIDIA espera poder \u00abdemostrar una filosof\u00eda de dise\u00f1o de innovaci\u00f3n en toda la pila de chips, sistemas y software donde las GPU, CPU y DPU act\u00faan como procesadores pares\u00bb. Hasta ahora, la compa\u00f1\u00eda ya ha creado una plataforma que opera trabajos de inteligencia artificial, an\u00e1lisis de datos y computaci\u00f3n de alto rendimiento dentro de proveedores de servicios en la nube, centros de supercomputaci\u00f3n, centros de datos corporativos y sistemas aut\u00f3nomos de inteligencia artificial.<\/p>\n

\"NVIDIA<\/figure>\n

Los centros de datos exigen cl\u00fasteres flexibles de procesadores, tarjetas gr\u00e1ficas y otros aceleradores que transmiten conjuntos masivos de memoria para producir el rendimiento de eficiencia energ\u00e9tica que requieren las cargas de trabajo actuales.<\/p>\n

Jonathon Evans, un distinguido ingeniero y veterano de 15 a\u00f1os en NVIDIA, describir\u00e1 NVIDIA NVLink-C2C. Conecta procesadores y tarjetas gr\u00e1ficas a 900 Gb\/s con cinco veces la eficiencia energ\u00e9tica del est\u00e1ndar PCIe Gen 5 existente, gracias a las transferencias de datos que consumen 1,3 picojulios por bit.<\/p>\n

NVLink-C2C combina dos procesadores para crear la CPU NVIDIA Grace con 144 n\u00facleos Arm Neoverse. Es una CPU construida para desentra\u00f1ar las preocupaciones inform\u00e1ticas m\u00e1s importantes del mundo.<\/p>\n

La CPU Grace utiliza memoria LPDDR5X para lograr la m\u00e1xima eficiencia. El chip permite un terabyte por segundo de ancho de banda en su memoria mientras mantiene el consumo de energ\u00eda para todo el complejo en 500 vatios.<\/p>\n

\n

NVLink-C2C tambi\u00e9n conecta los chips Grace CPU y Hopper GPU como pares de memoria compartida en NVIDIA Grace Hopper Superchip, lo que brinda la m\u00e1xima aceleraci\u00f3n para trabajos que requieren mucho rendimiento, como el entrenamiento de IA.<\/p>\n

Cualquiera puede crear chiplets personalizados con NVLink-C2C para conectarse coherentemente a las GPU, CPU, DPU y SoC de NVIDIA, ampliando esta nueva clase de productos integrados. La interconexi\u00f3n admitir\u00e1 los protocolos AMBA CHI y CXL utilizados por los procesadores Arm y x86.<\/span><\/p>\n<\/blockquote>\n

NVIDIA NVSwitch fusiona numerosos servidores en una sola supercomputadora de IA mediante NVLink, las interconexiones funcionan a 900 gigabytes por segundo y por encima de siete veces el ancho de banda de PCIe 5.0.<\/p>\n

NVSwitch permite a los usuarios vincular 32 sistemas NVIDIA DGX H100 en una supercomputadora de IA que ofrece un rendimiento m\u00e1ximo de IA.<\/p>\n

Alexander Ishii y Ryan Wells, dos de los ingenieros veteranos de NVIDIA, explican c\u00f3mo el conmutador permite a los usuarios crear sistemas con hasta 256 GPU para abordar cargas de trabajo exigentes, como entrenar modelos de IA con m\u00e1s de 1 bill\u00f3n de par\u00e1metros.<\/p>\n

\n
\"NVIDIA<\/div>
Fuente: NVIDIA<\/figcaption><\/figure>\n
\n

El conmutador incluye motores que aceleran las transferencias de datos mediante el protocolo de reducci\u00f3n de agregaci\u00f3n jer\u00e1rquica escalable de NVIDIA. SHARP es una capacidad inform\u00e1tica en red que debut\u00f3 en las redes NVIDIA Quantum InfiniBand. Puede duplicar el rendimiento de datos en aplicaciones de inteligencia artificial intensivas en comunicaciones.<\/p>\n<\/blockquote>\n

Jack Choquette, un distinguido ingeniero senior con 14 a\u00f1os en la empresa, brindar\u00e1 un recorrido detallado por la GPU NVIDIA H100 Tensor Core, tambi\u00e9n conocida como Hopper.<\/p>\n

El uso de las nuevas interconexiones para escalar a alturas sin precedentes llena muchas caracter\u00edsticas de vanguardia que aumentan el rendimiento, la eficiencia y la protecci\u00f3n del acelerador.<\/p>\n

\n

El nuevo Transformer Engine de Hopper y los Tensor Cores mejorados ofrecen una aceleraci\u00f3n de 30 veces en comparaci\u00f3n con la generaci\u00f3n anterior en inferencia de IA con los modelos de redes neuronales m\u00e1s importantes del mundo. Y emplea el primer sistema de memoria HBM3 del mundo para ofrecer la friolera de tres terabytes de ancho de banda de memoria, el aumento generacional m\u00e1s significativo de NVIDIA.<\/p>\n<\/blockquote>\n

Entre otras novedades:<\/p>\n

    \n
  • Hopper agrega soporte de virtualizaci\u00f3n para configuraciones de m\u00faltiples inquilinos y m\u00faltiples usuarios.<\/li>\n
  • Las nuevas instrucciones DPX aceleran los bucles recurrentes para aplicaciones de mapeo fino, ADN y an\u00e1lisis de prote\u00ednas.<\/li>\n
  • Soporte de paquetes Hopper para mayor seguridad con computaci\u00f3n confidencial.<\/li>\n<\/ul>\n
    \n

    Choquette, uno de los principales dise\u00f1adores de chips de la consola Nintendo64 al principio de su carrera, tambi\u00e9n describir\u00e1 las t\u00e9cnicas de computaci\u00f3n paralela que subyacen a algunos de los avances de Hopper.<\/p>\n

    Michael Ditty, gerente de arquitectura con 17 a\u00f1os en la empresa, proporcionar\u00e1 nuevas especificaciones de rendimiento para NVIDIA Jetson AGX Orin, un motor de m\u00e1quinas aut\u00f3nomas avanzadas, rob\u00f3tica e IA de vanguardia.<\/p>\n<\/blockquote>\n

    NVIDIA Jetson AGX Origin integra 12 n\u00facleos Arm Cortex-A78 y una GPU de arquitectura NVIDIA Ampere para ofrecer hasta 275 billones de operaciones por segundo en trabajos de inferencia de IA.<\/p>\n

    \n
    \"\"<\/div>
    Fuente: NVIDIA<\/figcaption><\/figure>\n
    \n

    El \u00faltimo m\u00f3dulo de producci\u00f3n incluye hasta 32 gigabytes de memoria y es parte de una familia compatible que se reduce a kits de desarrollo Jetson Nano de 5 W de tama\u00f1o de bolsillo.<\/p>\n

    Todos los chips nuevos son compatibles con la pila de software NVIDIA que acelera m\u00e1s de 700 aplicaciones y es utilizada por 2,5 millones de desarrolladores.<\/p>\n

    Basado en el modelo de programaci\u00f3n CUDA, incluye docenas de SDK de NVIDIA para mercados verticales como automotriz (DRIVE) y atenci\u00f3n m\u00e9dica (Clara), as\u00ed como tecnolog\u00edas como sistemas de recomendaci\u00f3n (Merlin) e inteligencia artificial conversacional (Riva).<\/p>\n

    La plataforma NVIDIA AI est\u00e1 disponible en todos los principales fabricantes de sistemas y servicios en la nube.<\/p>\n<\/blockquote>\n

    \n
    \"\"<\/div>
    Fuente: NVIDIA<\/figcaption><\/figure>\n

    Fuente de noticias: NVIDIA<\/p>\n<\/p><\/div>\n