AMD reafirmó los planes de lanzamiento de sus CPU EPYC Bergamo de próxima generación y las APU Instinct MI300 que se lanzan este año.
Las CPU AMD EPYC Bergamo y las APU Instinct MI300 impulsarán los centros de datos de próxima generación este año
AMD ya obtuvo una ventaja sobre Intel con sus CPU EPYC Genoa que se lanzaron meses antes que las CPU Xeon Sapphire Rapids. Avance rápido hasta 2023, y AMD planea lanzar cuatro nuevos productos para centros de datos que incluyen Genoa-X, Bergamo, Siena e Instinct MI300. Durante su reciente llamada de ganancias del cuarto trimestre de 2022, AMD confirmó una vez más que sus CPU EPYC Bergamo se lanzarán en el primer semestre de 2023, seguidas de las APU Instinct MI300 en el segundo semestre de 2023.
AMD Instinct MI300 en 2H 2023 – Potenciando 2+ Exaflops Supercomputadora El Capitan
El AMD Instinct MI300 será un acelerador Instinct multi-chip y multi-IP que no solo cuenta con los núcleos de GPU CDNA 3 de próxima generación, sino que también está equipado con los núcleos de CPU Zen 4 de próxima generación.
Las últimas especificaciones que se dieron a conocer para el acelerador AMD Instinct MI300 confirman que esta APU de exaescala será un monstruo de diseño de chiplet. La CPU abarcará varios paquetes de chiplet 3D de 5nm, todos combinados para albergar 146 mil millones de transistores. Esos transistores incluyen varias IP centrales, interfaces de memoria, interconexiones y mucho más. La arquitectura CDNA 3 es el ADN fundamental del Instinct MI300, pero la APU también viene con un total de 24 núcleos de CPU de centro de datos Zen 4 y 128 GB de memoria HBM3 de próxima generación que se ejecutan en una configuración de bus de 8192 bits de ancho que es verdaderamente importante -soplo.
AMD utilizará nodos de proceso de 5nm y 6nm para sus APU Instinct MI300 ‘CDNA 3’. El chip estará equipado con la próxima generación de Infinity Cache y contará con la arquitectura Infinity de cuarta generación que permite el soporte del ecosistema CXL 3.0. El acelerador Instinct MI300 tendrá una arquitectura de APU de memoria unificada y nuevos formatos matemáticos, lo que permitirá un aumento de 5 veces el rendimiento por vatio sobre CDNA 2, que es masivo. AMD también está proyectando más de 8 veces el rendimiento de la IA en comparación con los aceleradores Instinct MI250X basados en CDNA 2. El UMAA de la GPU CDNA 3 conectará la CPU y la GPU a un paquete de memoria HBM unificado, lo que eliminará las copias de memoria redundantes y ofrecerá un TCO bajo.
En enero, presentamos una vista previa de nuestro acelerador MI300 de próxima generación que se usará para aplicaciones de IA de modelos grandes en centros de datos en la nube y ha sido seleccionado para impulsar la supercomputadora de exaescala El Capitán de más de 2 exaflop en los Laboratorios Nacionales Lawrence Livermore.
MI300 será el primer chip de centro de datos de la industria que combina una CPU, GPU y memoria en un solo diseño integrado, brindando 8 veces más rendimiento y 5 veces más eficiencia para cargas de trabajo de HPC e IA, en comparación con nuestro acelerador MI250 que actualmente impulsa la supercomputadora más rápida del mundo. MI300 está en camino de comenzar a tomar muestras para clientes líderes a finales de este trimestre y se lanzará en la segunda mitad de 2023.
En términos de cuándo, hemos hablado antes sobre nuestras ambiciones de GPU de centro de datos y la oportunidad allí. Lo vemos como una gran oportunidad. A medida que avanzamos en la segunda mitad del año y lanzamos MI300, el primer usuario de MI300 serán las supercomputadoras o El Capitán, pero también estamos trabajando en estrecha colaboración con algunos proveedores grandes de la nube para calificar MI300 en cargas de trabajo de IA. Y deberíamos esperar que sea un contribuyente más significativo en 2024. Entonces, mucho enfoque en solo una gran oportunidad, muchas inversiones en software también para traer el ecosistema con nosotros.
Lisa Su, CEO de AMD (llamada de resultados del cuarto trimestre de 2022)
AMD EPYC Bergamo en 1H 2023 – Recargando el recuento de núcleos a 128 con Zen 4C
Los chips AMD EPYC Bergamo contarán con hasta 128 núcleos y apuntarán a los chips Xeon con tecnología HBM junto con productos de servidor de Apple, Amazon y Google con mayor número de núcleos (arquitectura ARM). Tanto Génova como Bérgamo utilizarán el mismo zócalo SP5 y la principal diferencia es que Génova está optimizado para relojes más altos, mientras que Bérgamo está optimizado para cargas de trabajo de mayor rendimiento.
Bergamo se lanzará en la primera mitad del año. Estamos en camino para el lanzamiento de Bérgamo, y verás que se convierte en un mayor contribuyente en la segunda mitad. Entonces, mientras pensamos en la rampa Zen 4 y el cruce con nuestra rampa Zen 3, debería ser hacia fines de año, más o menos en el cuarto trimestre, que vería una especie de cruce de Zen 4 versus Zen 3, si eso te ayuda
Lisa Su, CEO de AMD (llamada de resultados del cuarto trimestre de 2022)
Se afirma que las CPU EPYC Bergamo de AMD llegarán en la primera mitad de 2023 y usarán el mismo código que Génova y también se ejecutarán como Génova, pero el código tiene la mitad del tamaño de Génova. Las CPU se mencionan específicamente para competir con las CPU Graviton de AWS y otras soluciones basadas en ARM donde la frecuencia máxima no es un requisito, pero sí el rendimiento a través de la cantidad de núcleos. Un ejemplo de carga de trabajo para Bérgamo sería Java, donde los núcleos adicionales definitivamente pueden ser útiles. Después de Bérgamo, estará la línea Siena optimizada para TCO para la plataforma SP6, que jugará un papel crucial en la expansión del crecimiento TAM de AMD en el segmento de servidores.
Se espera que los chips EPYC e Instinct de AMD lleven la participación de mercado de la empresa al 30 % y posiblemente incluso la superen a fines de este año. La compañía realmente tiene una sólida hoja de ruta establecida en el segmento de mercado de servidores y estamos ansiosos por ver cómo evolucionan las cosas en los próximos trimestres.
Familias de CPU AMD EPYC:
Apellido | AMD EPYC Venecia | AMD EPYC Turín | AMD EPYC Siena | AMD EPYC Bérgamo | AMD EPYC Génova-X | AMD EPYC Génova | AMD EPYC Milán-X | AMD EPYC Milán | AMD EPYC Roma | AMD EPYC Nápoles |
---|---|---|---|---|---|---|---|---|---|---|
Marca familiar | ¿EPYC 7007? | EPYC 7006? | EPYC 7004? | EPYC 7005? | EPYC 7004? | EPYC 7004? | ¿EPYC 7003X? | EPYC7003 | EPYC7002 | EPYC7001 |
Lanzamiento familiar | 2025+ | 2024-2025? | 2023 | 2023 | 2023 | 2022 | 2022 | 2021 | 2019 | 2017 |
Arquitectura de CPU | Zen 6? | Zen5 | Zen 4 | Zen 4C | Zen 4 V-caché | Zen 4 | Zen 3 | Zen 3 | Zen 2 | Zen 1 |
Nodo de proceso | Por determinar | ¿TSMC de 3nm? | TSMC de 5nm | TSMC de 4nm | TSMC de 5nm | TSMC de 5nm | TSMC de 7nm | TSMC de 7nm | TSMC de 7nm | globo de 14nm |
Nombre de la plataforma | Por determinar | SP5 / SP6 | SP6 | SP5 | SP5 | SP5 | SP3 | SP3 | SP3 | SP3 |
Enchufe | Por determinar | LGA 6096 (SP5) LGA XXXX (SP6) |
LGA 4844 | LGA 6096 | LGA 6096 | LGA 6096 | LGA 4094 | LGA 4094 | LGA 4094 | LGA 4094 |
Recuento máximo de núcleos | 384? | 256 | 64 | 128 | 96 | 96 | 64 | 64 | 64 | 32 |
Cantidad máxima de hilos | 768? | 512 | 128 | 256 | 192 | 192 | 128 | 128 | 128 | 64 |
Caché L3 máx. | Por determinar | Por determinar | 256 MB? | Por determinar | 1152 MB? | 384 MB? | 768 MB? | 256 MB | 256 MB | 64 MB |
Diseño de chiplet | Por determinar | Por determinar | 8 CCD (1CCX por CCD) + 1 IOD | 12 CCD (1 CCX por CCD) + 1 IOD | 12 CCD (1 CCX por CCD) + 1 IOD | 12 CCD (1 CCX por CCD) + 1 IOD | 8 CCD con 3D V-Cache (1 CCX por CCD) + 1 IOD | 8 CCD (1 CCX por CCD) + 1 IOD | 8 CCD (2 CCX por CCD) + 1 IOD | 4 CCD (2 CCX por CCD) |
Soporte de memoria | Por determinar | DDR5-6000? | DDR5-5200 | DDR5-5600? | DDR5-5200 | DDR5-5200 | DDR4-3200 | DDR4-3200 | DDR4-3200 | DDR4-2666 |
Canales de memoria | Por determinar | 12 canales (SP5) 6 canales (SP6) |
6 canales | 12 canales | 12 canales | 12 canales | 8 canales | 8 canales | 8 canales | 8 canales |
Compatibilidad con la generación PCIe | Por determinar | Por determinar | 96 Generación 5 | 160 Gen 5 | 160 Gen 5 | 160 Gen 5 | 128 Gen 4 | 128 Gen 4 | 128 Gen 4 | 64 Generación 3 |
Rango TDP | Por determinar | 480 W (cTDP 600 W) | 70-225W | 320W (cTDP 400W) | 200 W (cTDP 400 W) | 200 W (cTDP 400 W) | 280W | 280W | 280W | 200W |