{"id":764757,"date":"2023-08-09T20:58:48","date_gmt":"2023-08-09T20:58:48","guid":{"rendered":"https:\/\/magazineoffice.com\/gpu-nvidia-gh200-potenciada-con-la-memoria-hbm3e-mas-rapida-del-mundo-ofrece-un-ancho-de-banda-de-5-tb-s\/"},"modified":"2023-08-09T20:58:53","modified_gmt":"2023-08-09T20:58:53","slug":"gpu-nvidia-gh200-potenciada-con-la-memoria-hbm3e-mas-rapida-del-mundo-ofrece-un-ancho-de-banda-de-5-tb-s","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/gpu-nvidia-gh200-potenciada-con-la-memoria-hbm3e-mas-rapida-del-mundo-ofrece-un-ancho-de-banda-de-5-tb-s\/","title":{"rendered":"GPU NVIDIA GH200 potenciada con la memoria HBM3e m\u00e1s r\u00e1pida del mundo, ofrece un ancho de banda de 5 TB\/s"},"content":{"rendered":"


\n<\/p>\n

\n

NVIDIA acaba de anunciar su GPU GH200 mejorada que ahora viene equipada con HBM3e, la soluci\u00f3n de memoria m\u00e1s r\u00e1pida del mundo.<\/p>\n

NVIDIA equipa la GPU de IA m\u00e1s r\u00e1pida del mundo con la memoria m\u00e1s r\u00e1pida del mundo: \u00a1Conoce la edici\u00f3n GH200 HBM3e!<\/h2>\n

Seg\u00fan NVIDIA, la GPU Hopper GH200 es ahora el primer chip HBM3e del mundo que ofrece no solo un mayor ancho de banda de memoria, sino tambi\u00e9n una mayor capacidad de memoria. Un sistema Grace Hopper dual ahora ofrece 3,5 veces m\u00e1s capacidad y 3 veces m\u00e1s ancho de banda que la oferta existente. Los sistemas ahora pueden ofrecer hasta 282 GB de memoria HBM3e.<\/p>\n

La propia memoria HBM3e ofrece una velocidad un 50 % m\u00e1s r\u00e1pida que el est\u00e1ndar HBM3 existente, lo que proporciona un ancho de banda de hasta 10 TB\/s por sistema y un ancho de banda de 5 TB\/s por chip. La memoria HBM3e ahora se utilizar\u00e1 para alimentar una gama de sistemas con tecnolog\u00eda GH200 (400 y contando) que incluyen una diversa variedad de combinaciones de las \u00faltimas arquitecturas de CPU, GPU y DPU de NVIDIA, incluidas Grace, Hopper, Ada Lovelace y Bluefield para cumplir con las aumento de la demanda dentro del segmento de IA.<\/p>\n

<\/figure>\n
\n
<\/div>\n
<\/div>\n<\/div>\n

NVIDIA no ha anunciado particularmente de qui\u00e9n obtendr\u00e1n los nuevos troqueles de memoria HBM3e para usar en su GPU GH200 AI, pero se inform\u00f3 recientemente que SK Hynix recibi\u00f3 la solicitud de NVIDIA para probar su DRAM HBM3e de pr\u00f3xima generaci\u00f3n. Mientras tanto, Samsung tambi\u00e9n tiene troqueles HBM3 m\u00e1s r\u00e1pidos que pueden ofrecer un ancho de banda de hasta 5 TB\/s por pila, aunque parece que SK Hynix podr\u00eda ser la opci\u00f3n para las GPU GH200.<\/p>\n

\n

NVIDIA anunci\u00f3 hoy la plataforma NVIDIA GH200 Grace Hopper de pr\u00f3xima generaci\u00f3n, basada en un nuevo Grace Hopper Superchip con el primer procesador HBM3e del mundo, creada para la era de la computaci\u00f3n acelerada y la IA generativa.<\/p>\n

Creada para manejar las cargas de trabajo de IA generativa m\u00e1s complejas del mundo, abarcando grandes modelos de lenguaje, sistemas de recomendaci\u00f3n y bases de datos vectoriales, la nueva plataforma estar\u00e1 disponible en una amplia gama de configuraciones.<\/p>\n

La configuraci\u00f3n dual, que ofrece hasta 3,5 veces m\u00e1s capacidad de memoria y 3 veces m\u00e1s ancho de banda que la oferta de la generaci\u00f3n actual, comprende un \u00fanico servidor con 144 n\u00facleos Arm Neoverse, ocho petaflops de rendimiento de IA y 282 GB de la \u00faltima tecnolog\u00eda de memoria HBM3e.<\/p>\n

La memoria HBM3e, que es un 50 % m\u00e1s r\u00e1pida que la HBM3 actual, ofrece un total de 10 TB\/seg de ancho de banda combinado, lo que permite que la nueva plataforma ejecute modelos 3,5 veces m\u00e1s grandes que la versi\u00f3n anterior, mientras mejora el rendimiento con un ancho de banda de memoria 3 veces m\u00e1s r\u00e1pido.<\/p>\n

a trav\u00e9s de NVIDIA<\/p>\n<\/blockquote>\n

\"\"<\/figure>\n

NVIDIA tambi\u00e9n declar\u00f3 que la disponibilidad de los primeros sistemas que utilizan las GPU Hopper GH200 con la nueva tecnolog\u00eda de memoria HBM3e estar\u00e1 disponible para el segundo trimestre de 2024, un poco m\u00e1s tarde que las GPU AMD Instinct MI300X que transportar\u00e1n un ancho de banda similar de 5 TB\/s+ HBM3 muere con hasta a capacidades de VRAM de 192 GB.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

NVIDIA acaba de anunciar su GPU GH200 mejorada que ahora viene equipada con HBM3e, la soluci\u00f3n de memoria m\u00e1s r\u00e1pida del mundo. NVIDIA equipa la GPU de IA m\u00e1s r\u00e1pida…<\/p>\n","protected":false},"author":1,"featured_media":760689,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[9291,5500,133,194,92298,4256,92466,84,14959,1146,843,3403,100964,5870,23374],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/764757"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=764757"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/764757\/revisions"}],"predecessor-version":[{"id":764758,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/764757\/revisions\/764758"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/760689"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=764757"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=764757"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=764757"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}