{"id":755596,"date":"2023-08-03T01:30:08","date_gmt":"2023-08-03T01:30:08","guid":{"rendered":"https:\/\/magazineoffice.com\/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd\/"},"modified":"2023-08-03T01:30:15","modified_gmt":"2023-08-03T01:30:15","slug":"la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-memoria-hbm3-dominara-en-las-gpu-ai-de-proxima-generacion-de-nvidia-y-amd\/","title":{"rendered":"La memoria HBM3 dominar\u00e1 en las GPU AI de pr\u00f3xima generaci\u00f3n de NVIDIA y AMD"},"content":{"rendered":"


\n<\/p>\n

\n

TrendForce informa que las memorias HBM3 y HBM3e de pr\u00f3xima generaci\u00f3n dominar\u00e1n la industria de las GPU de IA, especialmente despu\u00e9s del aumento significativo en el inter\u00e9s de las empresas por incorporar la DRAM.<\/p>\n

Las futuras GPU de IA de NVIDIA y AMD aprovechar\u00e1n las capacidades de los dise\u00f1os de memoria HBM3 m\u00e1s r\u00e1pidos<\/h2>\n

Las GPU NVIDIA A100 y H100 AI existentes funcionan con memoria HBM2e y HBM3, respectivamente, que debutaron en 2018 y 2020. Varios fabricantes, como Micron, SK Hynix y Samsung, est\u00e1n desarrollando r\u00e1pidamente instalaciones para la producci\u00f3n en masa de memoria HBM3 nueva y m\u00e1s r\u00e1pida. , y no pasar\u00e1 mucho tiempo antes de que se convierta en el nuevo punto de referencia.<\/p>\n

Hay un detalle gen\u00e9rico sobre la memoria HBM3 que mucha gente no conoce. Como destaca TrendForce, HBM3 caer\u00e1 en diferentes variaciones. Seg\u00fan se informa, el HBM3 de gama baja funcionar\u00e1 de 5,6 a 6,4 Gbps, mientras que las variantes m\u00e1s altas superan la marca de 8 Gbps. La variante de gama alta se llamar\u00e1 \u00abHBM3P, HBM3A, HBM3+ y HBM3 Gen2\u00bb.<\/p>\n

\n
<\/div>
Fuente de la imagen: Trendforce<\/figcaption><\/figure>\n

Recientemente informamos que la industria de HBM seguramente presenciar\u00e1 un aumento significativo en la participaci\u00f3n de mercado, con SK Hynix a la cabeza. Se espera que las futuras GPU de IA, como las GPU AMD MI300 Instinct y NVIDIA H100, cuenten con el proceso HBM3 de pr\u00f3xima generaci\u00f3n, en el que SK Hynix tiene la ventaja, ya que ya lleg\u00f3 a las etapas de fabricaci\u00f3n y recibi\u00f3 una solicitud de muestra de la propia NVIDIA.<\/p>\n

Micron tambi\u00e9n anunci\u00f3 recientemente planes para su futuro dise\u00f1o de memoria HBM4, pero eso no se espera hasta 2026, por lo que es probable que las pr\u00f3ximas GPU NVIDIA Blackwell con nombre en c\u00f3digo \u00abGB100\u00bb utilicen las variantes HBM3 m\u00e1s r\u00e1pidas cuando lleguen entre 2024 y 2025. Se espera que la producci\u00f3n en masa de la memoria HBM3E que utiliza tecnolog\u00eda de proceso de quinta generaci\u00f3n (10 nm) comience en la primera mitad de 2024 y se espera que tanto Samsung como SK Hynix aumenten.<\/p>\n

\"SK<\/figure>\n

Competidores como Samsung y Micron est\u00e1n presionando el acelerador, con varios informes que giran en torno a las empresas. Se dijo que Samsung hab\u00eda propuesto que NVIDIA se encargara de la adquisici\u00f3n de obleas y memoria a trav\u00e9s de sus divisiones. Al mismo tiempo, se informa que Micron se asoci\u00f3 con TSMC para ser un proveedor de memoria para las GPU AI de NVIDIA.<\/p>\n

En una cobertura anterior, discutimos las perspectivas de la industria de la IA seg\u00fan las cifras divulgadas por TrendForce. Se prev\u00e9 que los env\u00edos de servidores de IA aumenten en un 15,4 %, y la CAGR (tasa de crecimiento anual compuesto) se proyecta en un 12,2 % de 2023 a 2027. Este aumento masivo en los env\u00edos finalmente dar\u00e1 como resultado una mayor competencia entre las empresas, lo que en \u00faltima instancia elevar\u00e1 el impulso de la innovaci\u00f3n.<\/p>\n

Fuente de noticias: businesskorea<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

TrendForce informa que las memorias HBM3 y HBM3e de pr\u00f3xima generaci\u00f3n dominar\u00e1n la industria de las GPU de IA, especialmente despu\u00e9s del aumento significativo en el inter\u00e9s de las empresas…<\/p>\n","protected":false},"author":1,"featured_media":755597,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[6783,56921,876,4256,78047,246,14959,843,1754],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/755596"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=755596"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/755596\/revisions"}],"predecessor-version":[{"id":755598,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/755596\/revisions\/755598"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/755597"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=755596"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=755596"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=755596"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}