HBM4 – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sun, 19 May 2024 07:17:29 +0000 es hourly 1 https://wordpress.org/?v=6.5.4 Samsung y SK hynix Eye 1c DRAM como opción para la memoria HBM4, TSMC prepara la base HBM4 en 12 nm y 5 nm https://magazineoffice.com/samsung-y-sk-hynix-eye-1c-dram-como-opcion-para-la-memoria-hbm4-tsmc-prepara-la-base-hbm4-en-12-nm-y-5-nm/ https://magazineoffice.com/samsung-y-sk-hynix-eye-1c-dram-como-opcion-para-la-memoria-hbm4-tsmc-prepara-la-base-hbm4-en-12-nm-y-5-nm/#respond Sun, 19 May 2024 07:17:26 +0000 https://magazineoffice.com/samsung-y-sk-hynix-eye-1c-dram-como-opcion-para-la-memoria-hbm4-tsmc-prepara-la-base-hbm4-en-12-nm-y-5-nm/

El desarrollo del estándar de memoria HBM4 de próxima generación está en pleno apogeo mientras TSMC, Samsung y SK hynix preparan los últimos nodos de proceso y DRAM.

TSMC presenta nodos de 12 nm y 5 nm para matrices de base de memoria HBM4, Samsung y SK hynix Go 1c DRAM Route

Tanto Samsung como SK hynix están en la carrera por ofrecer el estándar de memoria HBM4 de próxima generación. Los gigantes coreanos han mostrado sus planes iniciales para un debut en 2025-2026. Hasta ahora, Samsung ha considerado el uso de tecnologías de empaquetado 3D y pilas de hasta 16 Hi para lograr un aumento sin precedentes en las capacidades de VRAM y el ancho de banda de la memoria, mientras que SK hynix también planea incorporar nuevas tecnologías de empaquetado para sus propias soluciones HBM4.

Según las últimas fuentes de la industria citadas por ZDNet Korea, se afirma que Samsung y SK hynix planean utilizar 1c DRAM para alimentar la memoria HBM4 de próxima generación. Se informa que Samsung planeó inicialmente el uso de su 1b DRAM (DRAM de quinta generación de clase 10 nano) para HBM4, que comenzó su producción en mayo del año pasado, mientras que sus productos HBM3E existentes se basan en la DRAM 1a. La compañía planea recuperar el impulso perdido desde que se informó recientemente que Samsung no había superado las pruebas de calificación para las últimas GPU de IA de NVIDIA, como Hopper y Blackwell.

Una razón clave destacada para el uso de 1c DRAM es que Samsung la ve por detrás de sus rivales en lo que respecta al consumo de energía. Como tal, la DRAM 1c se utilizará en productos HBM4 de 12-Hi y 16-Hi. Se espera que la compañía construya su primera línea de producción en masa para 1c DRAM para fines de 2024 y la capacidad de producción total será de alrededor de 3000 unidades por mes. Las cifras finales del producto HBM4 tampoco deberían ser muy diferentes. Ciertas fuentes incluso destacan que Samsung podría iniciar la producción en masa antes, a mediados de 2025, pero eso aún no está confirmado.

SK hynix planea utilizar 1b DRAM para los productos de memoria HBM4, mientras que el fabricante utilizará 1c DRAM para la memoria HBM4E de próxima generación.

Pero eso no es todo, durante el Simposio Europeo de Tecnología TSMC 2024, el fabricante de semiconductores informó que debido a las complejidades con el paso de la memoria HBM4 de interfaces de 1024 bits a 2048 bits, se fabricarán nuevos troqueles base utilizando los nodos de proceso N12 y N5. .

«Estamos trabajando con socios clave de memorias de HBM (Micron, Samsung, SK Hynix) en nodos avanzados para la integración completa de HBM4», dijo el director senior de plataforma de diseño y tecnología de TSMC. «El chip base rentable N12FFC+ puede alcanzar el rendimiento de HBM y el chip base N5 puede proporcionar aún más lógica con una potencia mucho menor a velocidades de HBM4».

«Colaboramos con socios de EDA como Cadence, Synopsys y Ansys para certificar la integridad de la señal del canal HBM4, IR/EM y precisión térmica», explicó el representante de TSMC.

TSMC a través de Anandtech

Los nuevos troqueles base se utilizarán para fabricar productos de memoria con pilas de hasta 16 Hi aprovechando las tecnologías CoWoS como los paquetes CoWoS-L y CoWoS-R que se revelaron recientemente. También aprovechará un nuevo proceso de integridad de la señal del canal, entre otros cambios clave. Tener un nodo de 5 nm proporcionará beneficios en potencia, rendimiento y densidad, por lo que esperamos el lanzamiento de productos de memoria HBM4 de próxima generación el próximo año para aceleradores de GPU de próxima generación.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/samsung-y-sk-hynix-eye-1c-dram-como-opcion-para-la-memoria-hbm4-tsmc-prepara-la-base-hbm4-en-12-nm-y-5-nm/feed/ 0
TSMC N3, 8 pilas HBM4, CPU Grace de 3 nm y enfoque en la eficiencia energética https://magazineoffice.com/tsmc-n3-8-pilas-hbm4-cpu-grace-de-3-nm-y-enfoque-en-la-eficiencia-energetica/ https://magazineoffice.com/tsmc-n3-8-pilas-hbm4-cpu-grace-de-3-nm-y-enfoque-en-la-eficiencia-energetica/#respond Thu, 09 May 2024 23:01:11 +0000 https://magazineoffice.com/tsmc-n3-8-pilas-hbm4-cpu-grace-de-3-nm-y-enfoque-en-la-eficiencia-energetica/

Se espera que NVIDIA produzca en masa sus GPU Rubin R100 de próxima generación con memoria HBM4 en el nodo TSMC de 3 nm para el cuarto trimestre de 2025.

Las GPU Rubin R100 de próxima generación de NVIDIA se centrarán en la eficiencia energética mientras aumentan el rendimiento de la IA, para utilizar la memoria HBM4 y el nodo TSMC de 3 nm

La nueva información proviene del analista de TF International Securities, Mich-Chi Kuo, quien afirma que NVIDIA ha sentado las bases para su GPU Rubin R100 de próxima generación que lleva el nombre de Vera Rubin, una astrónoma estadounidense que hizo importantes contribuciones a la comprensión de la materia oscura en el universo y al mismo tiempo es pionero en el trabajo sobre la velocidad de rotación de las galaxias.

Kuo afirma que las GPU NVIDIA Rubin R100 formarán parte de la línea de la serie R y se espera que se produzcan en masa en el cuarto trimestre de 2025, mientras que se espera que sistemas como las soluciones DGX y HGX se produzcan en masa en el primer semestre. de 2026. NVIDIA presentó recientemente sus GPU Blackwell B100 de próxima generación, que presentan un aumento monumental en el rendimiento de la IA y son el primer diseño de chiplet adecuado de la compañía que sentó las bases por primera vez en la GPU Ampere.

Se espera que las GPU Rubin R100 de NVIDIA utilicen un diseño de retícula 4x (frente a 3,3x de Blackwell) y se fabriquen utilizando la tecnología de empaquetado TSMC CoWoS-L en el nodo de proceso N3. TSMC presentó recientemente planes para chips con un tamaño de retícula de hasta 5,5x para 2026, que contarían con un sustrato de 100×100 mm y permitirían hasta 12 sitios HBM frente a 8 sitios HBM en los paquetes actuales de 80×80 mm.

La compañía de semiconductores también planea pasar a un nuevo diseño de SoIC que contará con un tamaño de retícula superior a 8x en una configuración de paquete de 120×120 mm. Estos todavía se están planificando, por lo que podemos esperar de manera más realista un tamaño de retícula entre 4x para las GPU Rubin.

Fuente de la imagen: TSMC

Otra información mencionada indica que NVIDIA utilizará la DRAM HBM4 de próxima generación para alimentar sus GPU R100. Actualmente, la compañía aprovecha la memoria HBM3E más rápida para sus GPU B100 y se espera que actualice estos chips con variantes HBM4 cuando la solución de memoria se produzca ampliamente en masa a fines de 2025. Esto será aproximadamente al mismo tiempo en que se espera que las GPU R100 entren en masa. producción. HBM4. Tanto Samsung como SK Hynix han revelado planes para comenzar el desarrollo de la solución de memoria de próxima generación en 2025 con hasta 16 pilas Hi.

NVIDIA también está lista para actualizar su CPU Grace para el módulo GR200 Superchip que albergará dos GPU R100 y una CPU Grace mejorada basada en el proceso de 3 nm de TSMC. Actualmente, la CPU Grace está construida sobre el nodo de proceso de 5 nm de TSMC y tiene 72 núcleos para un total de 144 núcleos en la solución Grace Superchip.

Uno de los mayores focos de atención de NVIDIA con sus GPU Rubin R100 de próxima generación será la eficiencia energética. La compañía es consciente de las crecientes necesidades de energía de sus chips de centros de datos y proporcionará mejoras significativas en este departamento al tiempo que aumentará las capacidades de inteligencia artificial de sus chips. Las GPU R100 todavía están lejos y no deberíamos esperar que se presenten hasta el GTC del próximo año, pero si esta información es correcta, entonces NVIDIA definitivamente tiene muchos desarrollos interesantes por delante para el segmento de IA y centros de datos.

Hoja de ruta del centro de datos NVIDIA/GPU AI

Nombre clave de la GPU X Frotar Blackwell Tolva Amperio Volta Pascal
Familia de GPU GX200 GR100 GB200 GH200/GH100 GA100 GV100 GP100
Código de GPU X100 100€ B100/B200 H100/H200 A100 V100 P100
Memoria ¿HBM4e? ¿HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Lanzamiento 202X 2025 2024 2022-2024 2020-2022 2018 2016

Comparte esta historia

Facebook

Gorjeo





Source link-29

]]>
https://magazineoffice.com/tsmc-n3-8-pilas-hbm4-cpu-grace-de-3-nm-y-enfoque-en-la-eficiencia-energetica/feed/ 0
SK hynix informa que su volumen de HBM para 2025 está casi agotado, producción de HBM3E de 12 Hola el próximo trimestre, HBM4 de 16 Hola en 2028 https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/ https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/#respond Thu, 02 May 2024 18:56:55 +0000 https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/

SK hynix ha destacado que no solo su volumen de HBM de 2024 sino casi todo su volumen de 2025 se ha agotado a medida que la demanda de IA se dispara.

SK hynix tiene casi la totalidad de su volumen de HBM de 2025 agotado, el HBM3E de 12 Hola se está probando y listo para la producción en el tercer trimestre de 2024

Durante su reciente conferencia de prensa, SK hynix anunció planes para invertir en una nueva fábrica M15X en Cheongju y Yongin Semiconductor Cluster en Corea, junto con instalaciones de embalaje avanzadas en los EE. UU. (Indiana).

El presidente de SK Group se reúne con el director ejecutivo de NVIDIA, Jensen Huang, en la sede de Santa Clara.

SK hynix reveló que la creciente demanda de IA ha agotado toda su capacidad de HBM para 2024 e incluso su volumen de 2025 se ha agotado casi por completo, lo que demuestra cuán grande es la necesidad de memoria rápida de HBM para los centros de datos actuales y de próxima generación. NVIDIA, como uno de los socios clave de SK hynix, está aprovechando sus soluciones de memoria HBM3 y HBM3e para su línea Hopper H200 y Blackwell AI GPU. La compañía espera comenzar pronto a probar la DRAM HBM3E de 12 Hi y que la producción comience en el próximo trimestre (tercer trimestre de 2024).

  • La compañía pronostica una rápida expansión de la tecnología de inteligencia artificial a una gama más amplia de aplicaciones en dispositivos, como teléfonos inteligentes, PC y automóviles desde centros de datos.
  • Se espera que la demanda de productos de memoria ultrarrápidos, de alta capacidad y de bajo consumo para aplicaciones de IA muestre un aumento explosivo.
  • La empresa cuenta con las mejores tecnologías de la industria para diversos productos, incluidos HBM, DRAM de alta capacidad basada en TSV y eSSD de alto rendimiento.
  • SK hynix está listo para ofrecer a los clientes las mejores soluciones de memoria personalizadas de la industria a través de una colaboración estratégica con socios comerciales globales
  • En cuanto a la producción, HBM de 2024 ya se agotó, mientras que el volumen de 2025 casi se agotó.
  • En cuanto a la tecnología de HBM, la empresa planea proporcionar muestras de HBM3E de 12 alturas con el mejor rendimiento de la industria en mayo, lo que permitirá el inicio de la producción en masa en el tercer trimestre.
  • La empresa aspira a un crecimiento cualitativo a través de una mejor competitividad de costes, una mayor rentabilidad con un aumento de las ventas de productos de valor añadido.
  • El plan es seguir mejorando la solidez financiera elevando el nivel de tenencia de efectivo a través de una respuesta de inversión flexible ante las circunstancias cambiantes de la demanda.
  • La compañía se compromete a contribuir a la economía nacional, ayudando a promover la posición de Corea como potencia de memoria de IA al convertirse en un cliente confiable, la empresa estable que no se deja influenciar por las circunstancias comerciales en la era de la IA.

Además de HBM3E, SK hynix también produce en masa módulos DRAM con más de 256 GB de capacidad y ya ha comercializado la solución LPDDR5T más rápida del mundo para dispositivos móviles. De cara al futuro, SK hynix planea presentar varias soluciones de memoria de próxima generación, como HBM4, HBM4E, LPDDR6, SSD de 300 TB, soluciones de memoria agrupadas CXL y módulos PIM (procesamiento en memoria).

  • En el espacio DRAM, la empresa produce en masa HBM3E y módulos con una capacidad ultraalta de más de 256 GB, al tiempo que comercializa el LPDDR5T más rápido del mundo.
  • La empresa es uno de los principales proveedores de memoria AI también en el espacio NAND como único proveedor de SSD basado en QLC de más de 60 TB.
  • Desarrollo de productos de próxima generación con rendimiento mejorado en marcha
  • La empresa planea introducir memorias innovadoras como HBM4, HBM4E, LPDDR6, SSD de 300 TB, solución de memoria agrupada CXL y procesamiento en memoria.
  • MR-MUF, propiedad de SK hynix, es una tecnología central para el embalaje de HBM
  • Las opiniones de que MR-MUF enfrentará desafíos tecnológicos en un apilamiento más alto son incorrectas, como se ve en la exitosa producción en masa de SK hynix de HBM3 de 12 alturas con Tecnología avanzada MR-MUF
  • MR-MUF reduce la presión del apilamiento de chips a un nivel del 6%, aumenta la productividad 4 veces al acortar el tiempo requerido para el proceso y mejora la disipación de calor en un 45% en comparación con la tecnología anterior.
  • El MR-MUF avanzado presentado recientemente por SK hynix mejora la disipación de calor en un 10% mediante la adopción de un nuevo material protector, al tiempo que mantiene las ventajas existentes del MR-MUF.
  • MR-MUF avanzado, que adopta una metodología de alta temperatura y baja presión conocida por su excelente control de deformación, una solución óptima para apilamiento alto y desarrollo de tecnología para realizar un apilamiento de 16 alturas en marcha.
  • La empresa planea adoptar Advanced MR-MUF para la realización del HBM4 de 16 alturas, mientras revisa de forma preventiva la tecnología de unión híbrida
  • Por otra parte, la compañía anunció el mes pasado un plan para construir instalaciones de embalaje avanzadas para memorias de IA en West Lafayette, Indiana.
  • La producción en masa de productos de IA, como HBM de próxima generación de la fábrica de Indiana, comenzará en el segundo semestre de 2028

Para HBM, SK hynix aprovechará su tecnología MR-MUF para empaquetar la DRAM. Se utilizará una versión avanzada de la tecnología para producir en masa módulos de memoria HBM3 de 12 Hi, lo que aumentará la productividad 4 veces y mejorará la disipación de calor en un 45% en comparación con las tecnologías anteriores.

La misma tecnología de empaque allanará el camino para la memoria HBM de 16 Hi y la compañía también está revisando actualmente el uso de la tecnología Hybrid Bonding para sus módulos HBM4 de 16 Hi. Se espera que la producción en masa de la próxima generación de memorias HBM comience en la fábrica de Indiana para el segundo semestre de 2028. Se espera que los módulos HBM4 estándar comiencen la producción en masa en 2026 para el próximo capítulo de la IA.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-informa-que-su-volumen-de-hbm-para-2025-esta-casi-agotado-produccion-de-hbm3e-de-12-hola-el-proximo-trimestre-hbm4-de-16-hola-en-2028/feed/ 0
SK Hynix se asocia con TSMC en el desarrollo de tecnología de embalaje de próxima generación y memoria HBM4, con miras al lanzamiento en 2026 https://magazineoffice.com/sk-hynix-se-asocia-con-tsmc-en-el-desarrollo-de-tecnologia-de-embalaje-de-proxima-generacion-y-memoria-hbm4-con-miras-al-lanzamiento-en-2026/ https://magazineoffice.com/sk-hynix-se-asocia-con-tsmc-en-el-desarrollo-de-tecnologia-de-embalaje-de-proxima-generacion-y-memoria-hbm4-con-miras-al-lanzamiento-en-2026/#respond Fri, 19 Apr 2024 12:29:09 +0000 https://magazineoffice.com/sk-hynix-se-asocia-con-tsmc-en-el-desarrollo-de-tecnologia-de-embalaje-de-proxima-generacion-y-memoria-hbm4-con-miras-al-lanzamiento-en-2026/

SK hynix ha anunciado su asociación con TSMC para el desarrollo de tecnologías de empaquetado y memoria HBM4 de próxima generación, como CoWoS 2.

SK hynix entra en la carrera de la memoria HBM4: se asocia con TSMC para innovaciones en embalaje y memoria de próxima generación

El anuncio de SK hynix se produce apenas un día después de que Samsung anunciara que había iniciado su propio desarrollo de memoria HBM4 y que se lanzaría en 2025. En ese sentido, la compañía estará lista con HBM4 para 2026 para el lanzamiento oficial en volumen y podemos esperar También presentan algunas velocidades extravagantes con mayores capacidades de memoria logradas mediante el uso de pilas de 16 Hi. SK Hynix también está trabajando con TSMC para acelerar las innovaciones de empaquetado de próxima generación, como CoWoS 2, que desempeñará un papel principal en el desarrollo de aceleradores de GPU e IA de próxima generación de NVIDIA, AMD e Intel.

Presione soltar: SK hynix Inc. (o “la empresa”, www.skhynix.com) anunció hoy que recientemente firmó un memorando de entendimiento con TSMC para colaborar para producir HBM de próxima generación y mejorar la lógica y la integración de HBM a través de tecnología de embalaje avanzada. La compañía planea continuar con el desarrollo de HBM4, o la sexta generación de la familia HBM, cuya producción en masa está prevista para 2026, a través de esta iniciativa.

Fuente de la imagen: SK hynix

SK hynix dijo que la colaboración entre el líder mundial en el espacio de memoria de IA y TSMC, una de las principales fundiciones de lógica a nivel mundial, conducirá a más innovaciones en la tecnología de HBM. También se espera que la colaboración permita avances en el rendimiento de la memoria a través de la colaboración trilateral entre el diseño de productos, la fundición y los proveedores de memoria.

  • SK hynix y TSMC firman un memorando de entendimiento para colaborar en el desarrollo de HBM4 y la tecnología de envasado de próxima generación
  • SK hynix adoptará el proceso de fundición de vanguardia de TSMC para mejorar el rendimiento del HBM4
  • Colaboración trilateral Diseño de producto-Fundición-Memoria para romper los límites de rendimiento de la memoria para aplicaciones de IA

Las dos empresas se centrarán primero en mejorar el rendimiento del troquel base que está montado en la parte inferior del paquete HBM. HBM se fabrica apilando un núcleo DRAM encima de un núcleo base que cuenta con tecnología TSV y conectando verticalmente un número fijo de capas en la pila DRAM al núcleo con TSV en un paquete HBM. El troquel base situado en la parte inferior está conectado a la GPU, que controla el HBM.

«Esperamos que una asociación sólida con TSMC ayude a acelerar nuestros esfuerzos para lograr una colaboración abierta con nuestros clientes y desarrollar el HBM4 con mejor rendimiento de la industria», dijo Justin Kim, presidente y director de AI Infra de SK hynix. «Con esta cooperación en marcha, fortaleceremos aún más nuestro liderazgo en el mercado como proveedor total de memoria de IA al reforzar la competitividad en el espacio de la plataforma de memoria personalizada».

“TSMC y SK hynix ya han establecido una sólida asociación a lo largo de los años. Hemos trabajado juntos para integrar la lógica más avanzada y la última tecnología de HBM para proporcionar las soluciones de inteligencia artificial líderes en el mundo”, afirmó el Dr. Kevin Zhang, vicepresidente senior de la Oficina de Desarrollo Comercial y Operaciones en el Extranjero de TSMC y vicepresidente adjunto. Director de Operaciones. «De cara al HBM4 de próxima generación, confiamos en que continuaremos trabajando estrechamente para ofrecer las soluciones mejor integradas para desbloquear nuevas innovaciones en IA para nuestros clientes comunes».

SK hynix

SK hynix ha utilizado una tecnología patentada para fabricar matrices base hasta HBM3E, pero planea adoptar el proceso lógico avanzado de TSMC para la matriz base HBM4 para poder incluir funciones adicionales en un espacio limitado. Esto también ayuda a SK hynix a producir HBM personalizado que satisfaga una amplia gama de demandas de rendimiento y eficiencia energética de los clientes.

SK hynix y TSMC también acordaron colaborar para optimizar la integración de HBM y CoWoS de TSMC2 tecnología, al mismo tiempo que cooperamos para responder a las solicitudes comunes de los clientes relacionadas con HBM.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-se-asocia-con-tsmc-en-el-desarrollo-de-tecnologia-de-embalaje-de-proxima-generacion-y-memoria-hbm4-con-miras-al-lanzamiento-en-2026/feed/ 0
JEDEC reduce el grosor de la memoria HBM4 a petición de los principales fabricantes y permite pilas de 16 Hi dentro de la tecnología de unión existente https://magazineoffice.com/jedec-reduce-el-grosor-de-la-memoria-hbm4-a-peticion-de-los-principales-fabricantes-y-permite-pilas-de-16-hi-dentro-de-la-tecnologia-de-union-existente/ https://magazineoffice.com/jedec-reduce-el-grosor-de-la-memoria-hbm4-a-peticion-de-los-principales-fabricantes-y-permite-pilas-de-16-hi-dentro-de-la-tecnologia-de-union-existente/#respond Wed, 13 Mar 2024 19:16:44 +0000 https://magazineoffice.com/jedec-reduce-el-grosor-de-la-memoria-hbm4-a-peticion-de-los-principales-fabricantes-y-permite-pilas-de-16-hi-dentro-de-la-tecnologia-de-union-existente/

Según se informa, JEDEC ha brindado relajación a los participantes de la memoria HBM4, lo que podría permitir un desarrollo más eficiente para diseños de 16 Hi.

JEDEC facilita los umbrales de espesor de HBM4 para fabricantes como Samsung, SK Hynix y Micron, eliminando la necesidad de tecnología de unión híbrida para pilas de 16 Hi

HBM4 es el próximo gran avance en el segmento de memorias, y todas las empresas participan en el desarrollo del tipo de memoria de manera más efectiva, ya que en última instancia marcaría el rumbo hacia el éxito en los mercados de próxima generación.

Para ayudar a los fabricantes, ZDNet Korea informa que JEDEC ha decidido reducir el espesor del paquete de HBM4 a 775 micrómetros para pilas HBM4 de 12 y 16 capas, en medio de las complejidades que implica un mayor nivel de espesor, junto con la demanda altamente anticipada asociada. con el proceso.

Además, anteriormente se decía que los fabricantes empleaban unión híbrida con el proceso, una tecnología de envasado más nueva, para reducir el grosor del paquete, ya que utiliza unión directa con el chip y la oblea integrados.

Sin embargo, dado que la memoria HBM4 será una nueva tecnología, se espera que el empleo de enlaces híbridos dé como resultado un aumento general en los precios, lo que significa que los productos de próxima generación serán mucho más caros, pero el uso de enlaces híbridos no es seguro. sin embargo, los fabricantes de HBM probablemente aprovecharían la «relajación» proporcionada por JEDEC.

En cuanto a cuándo podríamos ver el debut de los productos basados ​​en HBM4, SK hynix tiene planes de producirlo en masa para 2026, y se espera que las muestras iniciales presenten capacidades de hasta 36 GB por pila. Se sabe que HBM4 revolucionará los mercados de la IA en lo que respecta al rendimiento informático, ya que el tipo de memoria empleará configuraciones de matrices integradas «revolucionarias» combinando lógica y semiconductores en un solo paquete. Debido a que TSMC y SK hynix han creado recientemente una alianza, se espera que los mercados de HBM y semiconductores avancen en un entorno de colaboración.

Fuente de noticias: ZDNet Corea

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/jedec-reduce-el-grosor-de-la-memoria-hbm4-a-peticion-de-los-principales-fabricantes-y-permite-pilas-de-16-hi-dentro-de-la-tecnologia-de-union-existente/feed/ 0
TSMC y SK hynix forman una alianza estratégica de IA, impulsando HBM4 para las GPU NVIDIA y AMD de próxima generación https://magazineoffice.com/tsmc-y-sk-hynix-forman-una-alianza-estrategica-de-ia-impulsando-hbm4-para-las-gpu-nvidia-y-amd-de-proxima-generacion/ https://magazineoffice.com/tsmc-y-sk-hynix-forman-una-alianza-estrategica-de-ia-impulsando-hbm4-para-las-gpu-nvidia-y-amd-de-proxima-generacion/#respond Fri, 09 Feb 2024 20:16:23 +0000 https://magazineoffice.com/tsmc-y-sk-hynix-forman-una-alianza-estrategica-de-ia-impulsando-hbm4-para-las-gpu-nvidia-y-amd-de-proxima-generacion/

Se informa que TSMC y SK hynix están formando una alianza de inteligencia artificial para avanzar juntos hacia el futuro, lo que se acelerará con el desarrollo de HBM4 para las GPU de próxima generación de NVIDIA y AMD.

TSMC y SK hynix supuestamente ven a Samsung Electronics como una amenaza para su presencia en el mercado y acelerarán el HBM4, que se utilizará por primera vez en las GPU NVIDIA de próxima generación

En este momento, la industria de la IA está evolucionando dinámicamente y, en lo que respecta al aspecto financiero, las cifras de ingresos que estamos viendo en este momento han atraído a todas las principales empresas de tecnología que se puedan imaginar. TSMC y SK hynix son dos actores importantes en el suministro de los fundamentos que requiere la industria: uno lidera las listas de semiconductores y el otro lidera el suministro de HBM. Se informa que ambas empresas han formado una alianza «progresista» con el objetivo de desarrollar conjuntamente productos de próxima generación, lo que en última instancia las llevará a ser el centro de atención en los mercados.

El informe de Pulse News revela que la nueva alianza, denominada «One Team», entró en vigor para frustrar la competencia de la industria mediante el desarrollo de nuevos productos antes que otros. Esta vez el enfoque principal sería trabajar en la próxima generación de memorias HBM, la vanguardista HBM4, que tiene un enorme potencial cuando se trata de revolucionar las capacidades informáticas del segmento de IA y se espera que impulse la IA de NVIDIA de próxima generación. GPU. La inclusión de TSMC aquí podría catalizar la influencia del gigante surcoreano en los mercados ya que la firma es experta en captar la atención de los clientes.

También se dice que la alianza es para combatir la creciente influencia de Samsung Electronics en los mercados, ya que Samsung está en una posición en la que tiene instalaciones tanto de semiconductores como de memoria, razón por la cual la empresa ha sido favorecida por las empresas involucradas en la carrera de la IA desde reduce las complejidades de la cadena de suministro. Ahora que TSMC y SK hynix operan como una sola unidad, las cosas serían mucho más competitivas e interesantes.

El desarrollo de HBM4 se acelerará para impulsar las GPU de próxima generación de NVIDIA y AMD. Se espera que NVIDIA utilice HBM3E en sus próximas GPU H200 y B100, pero podemos ver una variante futura de Blackwell y los chips Vera Rubin de próxima generación para aprovechar todo el potencial de los nuevos estándares de HBM.

La competitividad en los mercados es lo que impulsa la innovación, y la alianza «One Team» sin duda acelerará las cosas. Será interesante ver cómo responde el lado «fuente» de las cosas a la unión de dos grandes empresas, pero podríamos ver alianzas similares formándose y avanzando.

Fuente de noticias: Diario Económico de Taiwán

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/tsmc-y-sk-hynix-forman-una-alianza-estrategica-de-ia-impulsando-hbm4-para-las-gpu-nvidia-y-amd-de-proxima-generacion/feed/ 0
SK hynix anuncia la producción en masa de HBM4 para 2026, preparada para GPU de IA de próxima generación https://magazineoffice.com/sk-hynix-anuncia-la-produccion-en-masa-de-hbm4-para-2026-preparada-para-gpu-de-ia-de-proxima-generacion/ https://magazineoffice.com/sk-hynix-anuncia-la-produccion-en-masa-de-hbm4-para-2026-preparada-para-gpu-de-ia-de-proxima-generacion/#respond Sun, 04 Feb 2024 00:53:20 +0000 https://magazineoffice.com/sk-hynix-anuncia-la-produccion-en-masa-de-hbm4-para-2026-preparada-para-gpu-de-ia-de-proxima-generacion/

SK hynix ha anunciado la producción en masa de la memoria HBM4 de próxima generación, que se espera que comience en 2026.

SK hynix se une a empresas como Samsung y Micron en la carrera HBM4, apuntando a un cronograma de producción en masa similar

Hasta ahora, hemos visto a Micron y Samsung enumerar sus productos de memoria HBM4 de próxima generación y confirmar el desarrollo. Estas dos empresas han destacado un plazo de lanzamiento de alrededor de 2025-2026, y parece que SK hynix también se ha unido al juego. Con el rápido aumento en la adopción de la IA en los mercados, existe una demanda de mayor potencia informática a medida que avanzamos hacia el futuro, y es importante señalar que HBM ha desempeñado un papel vital en cómo la informática de IA se ha posicionado en el mercado. Hoy en día, ya que es un componente crucial en la fabricación de aceleradores de IA.

Durante un discurso de apertura en SEMICON Korea 2024, el vicepresidente de SK hynix, Kim Chun-hwan, reveló la intención de la empresa de iniciar la producción en masa de HBM4 para 2026, afirmando que impulsaría un inmenso crecimiento en los mercados de IA. Cree que, aparte de la transición a la próxima generación, es importante darse cuenta de que la industria de HBM se enfrenta a una inmensa demanda; por lo tanto, es mucho más importante crear una solución que tenga un suministro fluido y sea innovadora. Kim cree que se espera que el mercado de HBM crezca hasta un 40% para 2025 y se ha posicionado desde el principio para aprovecharlo al máximo.

Fuente de la imagen: Fuerza de tendencia

En términos de qué esperar con HBM4, una hoja de ruta compartida por Trendforce espera que las primeras muestras de HBM4 presenten hasta 36 GB de capacidad por pila, y se espera que JEDEC publique la especificación completa alrededor del segundo semestre de 2024-2025. . Se espera que el primer muestreo y disponibilidad del cliente esté disponible para 2026, por lo que todavía queda mucho tiempo antes de que podamos ver en acción las nuevas soluciones de inteligencia artificial con memoria de gran ancho de banda. No está claro qué tipo de productos de IA emplearán el nuevo proceso; por lo tanto, no podemos hacer ninguna predicción por ahora.

Con SK hynix subiendo al ring, parece que los mercados de HBM se volverán mucho más competitivos en el futuro, y será interesante ver qué empresa emerge para tomar el trono.

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-anuncia-la-produccion-en-masa-de-hbm4-para-2026-preparada-para-gpu-de-ia-de-proxima-generacion/feed/ 0
SK hynix confirma que el desarrollo de la memoria de alto ancho de banda HBM4 comenzará en 2024 https://magazineoffice.com/sk-hynix-confirma-que-el-desarrollo-de-la-memoria-de-alto-ancho-de-banda-hbm4-comenzara-en-2024/ https://magazineoffice.com/sk-hynix-confirma-que-el-desarrollo-de-la-memoria-de-alto-ancho-de-banda-hbm4-comenzara-en-2024/#respond Mon, 25 Dec 2023 17:34:37 +0000 https://magazineoffice.com/sk-hynix-confirma-que-el-desarrollo-de-la-memoria-de-alto-ancho-de-banda-hbm4-comenzara-en-2024/

SK hynix ha confirmado en una publicación de blog que el desarrollo de su memoria de gran ancho de banda HBM4 de próxima generación comenzará en 2024.

SK hynix comenzará el desarrollo de la memoria de alto ancho de banda HBM4 de próxima generación en 2024, para impulsar la próxima era de los centros de datos y la inteligencia artificial

Hasta ahora, hemos visto a Micron y Samsung enumerar sus productos de memoria HBM4 de próxima generación y al mismo tiempo confirmar el desarrollo. Estas dos empresas han destacado un plazo de lanzamiento de alrededor de 2025-2026. Según la última confirmación de SK hynix, la compañía también reveló que planea comenzar la producción de la próxima generación de memoria de gran ancho de banda en 2024.

Hablando de sus productos HBM, el director senior Kim Wang-soo destacó que la empresa producirá en masa su propia solución HBM3E, una variante mejorada de la memoria HBM3 existente, en 2024. La nueva memoria ofrecerá mayores velocidades y capacidades. Pero ese mismo año, SK hynix también planea iniciar el desarrollo de su memoria HBM4, lo que marcará un paso importante en la evolución continua de la gama de productos HBM.

La ventaja competitiva continuará el próximo año. El líder del equipo GSM, Kim Wang-soo, dijo: «Con la producción y venta en masa de HBM3E previstas para el próximo año, nuestro dominio del mercado se maximizará una vez más». Y añadió: “Dado que también está previsto que comience en serio el desarrollo de HBM4, el producto siguiente, HBM de SK Hynix entrará en una nueva fase el próximo año. “Será un año en el que celebraremos”, dijo.

a través de SK Hynix

Ahora que el desarrollo está planificado para 2024, podemos esperar que los productos reales que utilizan dichas matrices de memoria estén disponibles a fines de 2025 o 2026. Una hoja de ruta reciente compartida por Trendforce espera que las primeras muestras de HBM4 presenten capacidades de hasta 36 GB por pila y se espera que JEDEC publique las especificaciones completas alrededor del segundo semestre de 2024-2025. Se espera que el primer muestreo y disponibilidad del cliente esté disponible para 2026, por lo que todavía queda mucho tiempo antes de que podamos ver las nuevas soluciones de memoria de gran ancho de banda en acción.

Fuente de la imagen: Fuerza de tendencia

Con pilas de 36 GB, puede obtener hasta 288 GB de capacidad y hay planeada una capacidad aún mayor. La memoria HBM3E ya alcanza un máximo de 9,8 Gbps, por lo que podemos esperar que HBM4 sea el primero en romper la barrera de dos dígitos de más de 10 Gbps. En cuanto a los productos, se espera que Blackwell de NVIDIA utilice módulos de memoria HBM3E, por lo que será el sucesor de Blackwell (posiblemente con el nombre en código de Vera Rubin) o una versión mejorada de ese como Hopper H200 (HBM3E) para ser el primero en utilizar el HBM4.

Hoja de ruta del centro de datos NVIDIA/GPU AI

Nombre clave de la GPU X Frotar Blackwell Tolva Amperio Volta Pascal
Familia de GPU GX200 GR100 GB200 GH200/GH100 GA100 GV100 GP100
Código de GPU X100 100€ B100 H100/H200 A100 V100 P100
Memoria ¿HBM4e? ¿HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Lanzamiento 202X 2025 2024 2022-2024 2020-2022 2018 2016

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/sk-hynix-confirma-que-el-desarrollo-de-la-memoria-de-alto-ancho-de-banda-hbm4-comenzara-en-2024/feed/ 0
NVIDIA iniciará la adopción de HBM3e en el primer trimestre de 2024 con Hopper H200, se espera que HBM4 debute en 2026 https://magazineoffice.com/nvidia-iniciara-la-adopcion-de-hbm3e-en-el-primer-trimestre-de-2024-con-hopper-h200-se-espera-que-hbm4-debute-en-2026/ https://magazineoffice.com/nvidia-iniciara-la-adopcion-de-hbm3e-en-el-primer-trimestre-de-2024-con-hopper-h200-se-espera-que-hbm4-debute-en-2026/#respond Wed, 29 Nov 2023 15:11:10 +0000 https://magazineoffice.com/nvidia-iniciara-la-adopcion-de-hbm3e-en-el-primer-trimestre-de-2024-con-hopper-h200-se-espera-que-hbm4-debute-en-2026/

Parece que la industria de HBM se ha centrado en NVIDIA, ya que TrendForce estima un mercado donde los pedidos de IA de NVIDIA dominan el suministro de HBM actual y de próxima generación.

NVIDIA planea dominar los mercados de IA mediante el uso de memoria HBM de próxima generación, los proveedores comienzan a girar en torno al equipo verde

Según una investigación de mercado, NVIDIA está lista para ceder una buena parte de sus pedidos de HBM al gigante coreano Samsung, ya que ambas compañías comienzan a construir vínculos comerciales que podrían resultar vitales para la industria de la inteligencia artificial.

En septiembre se informó que Samsung había logrado ganarse la confianza del Equipo Verde al pasar múltiples controles de calificación para sus productos HBM y TrendForce ahora revela que Samsung podría completar el proceso en diciembre, con pedidos que comenzarán a llegar a principios del próximo. año. Samsung podría ser potencialmente responsable de cuidar las GPU de IA de la generación actual, como las altamente exigentes H100 y A100.

Créditos de las imágenes: TrendForce

Además de HBM3, la adopción del estándar HBM3e de próxima generación también está en camino, ya que fuentes de la industria citan que proveedores como Micron, SK Hynix y Samsung ya han iniciado el proceso de muestreo de HBM3e, y se dice que un factor decisivo El resultado podría llegar en 2024. Para resumir un poco, se espera el debut de HBM3e en las GPU Blackwell AI de NVIDIA, que se rumorea que se lanzarán en el segundo trimestre de 2024 y, en términos de rendimiento, traerá mejoras decisivas. por vatio, mediante la adopción de un diseño de chiplet.

Pasando a lo interesante, NVIDIA tiene mucho planeado para sus clientes en 2024, ya que la compañía ya anunció la GPU H200 Hopper, que se espera que tenga una adopción masiva el próximo año, seguida de la introducción de la B100 «Blackwell». GPU AI, las cuales se basarán en la tecnología de memoria HBM3e.

Además de la ruta convencional, también se rumorea que NVIDIA presentará CPU basadas en ARM para el segmento de IA, lo que creará diversificación en los mercados, además de aumentar la competencia. También se espera que Intel y AMD presenten sus respectivas soluciones de IA, entre las que destacan las GPU AMD Instinct de próxima generación y los aceleradores de IA Gaudi de Intel, con memoria HBM3e.

Créditos de las imágenes: TrendForce

Finalmente, TrendForce ofrece un resumen de lo que podemos esperar con HBM4, especialmente por el hecho de que el próximo estándar de memoria vendrá con una renovación completa en términos de configuraciones de matrices integradas, ya que se rumorea que la matriz lógica base contará con una tecnología de 12 nm. procesará obleas por primera vez y actuará como impulsor detrás de la DRAM/GPU empaquetada en 3D, estableciendo un entorno de colaboración entre fundiciones y proveedores de memoria. Se espera que HBM4 marque la transición a la próxima generación en términos de potencia informática y podría ser la clave para futuros avances en la industria de la IA.

Fuente de noticias: TrendForce

Comparte esta historia

Facebook

Gorjeo



Source link-29

]]>
https://magazineoffice.com/nvidia-iniciara-la-adopcion-de-hbm3e-en-el-primer-trimestre-de-2024-con-hopper-h200-se-espera-que-hbm4-debute-en-2026/feed/ 0
Samsung espera que la memoria HBM4 llegue en 2025 https://magazineoffice.com/samsung-espera-que-la-memoria-hbm4-llegue-en-2025/ https://magazineoffice.com/samsung-espera-que-la-memoria-hbm4-llegue-en-2025/#respond Fri, 13 Oct 2023 09:40:08 +0000 https://magazineoffice.com/samsung-espera-que-la-memoria-hbm4-llegue-en-2025/

Hemos oído hablar de la memoria HBM4 varias veces en los últimos meses, y esta semana Samsung reveló que espera que HBM4 se introduzca en 2025. La nueva memoria contará con una interfaz de 2048 bits por pila, el doble de ancha que la de 1024 bits de la HBM3. poco.

«De cara al futuro, se espera que HBM4 se introduzca en 2025 con tecnologías optimizadas para altas propiedades térmicas en desarrollo, como el ensamblaje de película no conductora (NCF) y la unión híbrida de cobre (HCB)», SangJoon Hwang, vicepresidente ejecutivo y director de productos DRAM. y equipo de tecnología de Samsung Electronics, escribió en una publicación del blog de la empresa.

Aunque Samsung espera que HBM4 se introduzca en 2025, su producción probablemente comenzará en 2025-2026, ya que la industria deberá prepararse bastante para esta tecnología. Mientras tanto, Samsung ofrecerá a sus clientes sus pilas de memoria HBM3E con una velocidad de transferencia de datos de 9,8 GT/s que ofrecerá un ancho de banda de 1,25 TB/s por pila.

A principios de este año, Micron reveló que la memoria ‘HBMNext’ surgiría alrededor de 2026, proporcionando capacidades por pila de entre 32 GB y 64 GB y un ancho de banda máximo de 2 TB/s por pila o más, un marcado aumento con respecto a los 1,2 TB/s por pila de HBM3E. . Para construir una pila de 64 GB, se necesitará una pila de 16 Hola con dispositivos de memoria de 32 GB. Aunque los stacks 16-Hi son compatibles incluso con la especificación HBM3, nadie ha anunciado este tipo de productos hasta ahora y parece que estos stacks tan densos sólo llegarán al mercado con HBM4.

Para producir pilas de memoria HBM4, incluidas pilas de 16 Hi, Samsung necesitará pulir un par de nuevas tecnologías mencionadas por SangJoon Hwang. Una de estas tecnologías se llama NCF (película no conductora) y es una capa de polímero que protege los TSV en sus puntos de soldadura del aislamiento y los golpes mecánicos. Otra es HCB (unión de cobre híbrida), que es una tecnología de unión que utiliza un conductor de cobre y una película aislante de óxido en lugar de soldadura convencional para minimizar la distancia entre dispositivos DRAM y permitir los golpes más pequeños necesarios para una interfaz de 2048 bits.



Source link-41

]]>
https://magazineoffice.com/samsung-espera-que-la-memoria-hbm4-llegue-en-2025/feed/ 0