\n
<\/picture><\/p>\n<\/div>\n<\/div>(Cr\u00e9dito de la imagen: Marco Chiappetta)<\/span><\/figcaption><\/figure>\nEl Instinct MI300 de AMD se perfila como un chip incre\u00edble con n\u00facleos de CPU y GPU y una gran cantidad de memoria de alta velocidad reunida en el mismo procesador, pero los detalles siguen siendo leves. Ahora hemos recopilado algunos detalles nuevos de una presentaci\u00f3n de International Super Computing (ISC) 2023 que describe la pr\u00f3xima supercomputadora El Capitan de dos exaflop que ser\u00e1 impulsada por Instinct MI300. Tambi\u00e9n encontramos otros detalles en un discurso de apertura del CTO de AMD, Mark Papermaster, en ITF World 2023, una conferencia organizada por el gigante de la investigaci\u00f3n imec (puede leer nuestra entrevista con Papermaster aqu\u00ed).<\/p>\n
La supercomputadora El Capit\u00e1n est\u00e1 lista para ser la m\u00e1s r\u00e1pida del mundo cuando se encienda a fines de 2023, tomando la posici\u00f3n de liderazgo de la Frontier impulsada por AMD. El poderoso Instinct MI300 de AMD impulsar\u00e1 la m\u00e1quina, y los nuevos detalles incluyen un mapa de topolog\u00eda de una instalaci\u00f3n de MI300, im\u00e1genes del laboratorio Austin MI300 de AMD y una imagen de los nuevos blades que se emplear\u00e1n en la supercomputadora El Capitan. Tambi\u00e9n cubriremos algunos de los otros desarrollos nuevos en torno al despliegue de El Capit\u00e1n. <\/p>\n
\n
\n
Imagen 1 de 5<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: AMD)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: AMD)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: AMD)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: futuro)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: futuro)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\nComo recordatorio, el Instinct MI300 es una APU de centro de datos que combina un total de 13 chipsets, muchos de ellos apilados en 3D, para crear un paquete de un solo chip con veinticuatro n\u00facleos de CPU Zen 4 fusionados con un motor de gr\u00e1ficos CDNA 3 y ocho pilas de memoria HBM3 por un total de 128 GB. En general, el chip pesa 146 mil millones de transistores, lo que lo convierte en el chip m\u00e1s grande que AMD ha presionado para producir. Los nueve troqueles de c\u00f3mputo, una combinaci\u00f3n de CPU y GPU de 5nm, est\u00e1n apilados en 3D sobre cuatro troqueles base de 6nm que son intercaladores activos que manejan la memoria y el tr\u00e1fico de E\/S, entre otras funciones.<\/p>\n
El discurso de apertura de ITF World de Papermaster se centr\u00f3 en el objetivo \u00ab30×25\u00bb de AMD de aumentar la eficiencia energ\u00e9tica en 30 veces para 2025, y c\u00f3mo la inform\u00e1tica ahora est\u00e1 siendo controlada por la eficiencia energ\u00e9tica a medida que la Ley de Moore se ralentiza. La clave de esa iniciativa es el Instinct MI300, y gran parte de sus ganancias provienen de la topolog\u00eda de sistema simplificada que ve arriba.<\/p>\n
Como puede ver en la primera diapositiva, un nodo con tecnolog\u00eda Instinct MI250 tiene CPU y GPU separadas, con una sola CPU EPYC en el medio para coordinar las cargas de trabajo.<\/p>\n
En contraste, el Instinct MI300 contiene un procesador EPYC Genoa de cuarta generaci\u00f3n de 24 n\u00facleos incorporado dentro del paquete, lo que elimina una CPU independiente de la ecuaci\u00f3n. Sin embargo, se mantiene la misma topolog\u00eda general, sin la CPU independiente, lo que permite una topolog\u00eda de todos a todos totalmente conectada con cuatro elementos. Este tipo de conexi\u00f3n permite que todos los procesadores se comuniquen entre s\u00ed directamente sin que otra CPU o GPU act\u00fae como intermediario para transmitir datos a los dem\u00e1s elementos, lo que reduce la latencia y la variabilidad. Ese es un punto de dolor potencial con la topolog\u00eda MI250. El mapa de topolog\u00eda del MI300 tambi\u00e9n indica que cada chip tiene tres conexiones, tal como vimos con el MI250. Las diapositivas de Papermaster tambi\u00e9n se refieren a los intercaladores activos que forman los troqueles base como el \u00abtroquel base de tela infinity de cuarta generaci\u00f3n\u00bb.<\/p>\n
Como puede ver en el resto de estas diapositivas, el MI300 ha colocado a AMD en un camino claro para superar sus objetivos de eficiencia de 30X25 y, al mismo tiempo, superar la tendencia de potencia de la industria. Tambi\u00e9n lanzamos algunas fotos del silicio Instinct MI300 que vimos de primera mano, pero a continuaci\u00f3n vemos c\u00f3mo se ve el MI300 dentro de una hoja real que se instalar\u00e1 en El Capit\u00e1n. <\/p>\n
AMD Instinct MI300 en El Capit\u00e1n<\/h2>\n\n
\n
Imagen 1 de 5<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\nEn ISC 2023, Bronis R. de Supinski, CTO del Laboratorio Nacional Lawrence Livermore (LLNL), habl\u00f3 sobre la integraci\u00f3n de las APU Instinct MI300 en la supercomputadora El Capit\u00e1n. La Administraci\u00f3n Nacional de Seguridad Nuclear (NNSA) utilizar\u00e1 El Capit\u00e1n para promover los usos militares de la tecnolog\u00eda nuclear.<\/p>\n
Como puede ver en la primera imagen del \u00e1lbum de arriba, Supinski mostr\u00f3 una hoja \u00fanica para el sistema El Capit\u00e1n. Este blade, fabricado por el proveedor de sistemas HPE, cuenta con cuatro tarjetas Instinct MI300 refrigeradas por l\u00edquido en un chasis delgado de 1U. Supinksi tambi\u00e9n mostr\u00f3 una imagen del laboratorio de AMD en Austin, donde tienen silicio MI300 en funcionamiento, lo que demuestra que los chips son reales y ya se est\u00e1n probando, un punto clave que se debe tener en cuenta algunos de los pasos en falso recientes con los sistemas con tecnolog\u00eda Intel.<\/p>\n
Supinksi a menudo se refer\u00eda al MI300 como \u00abMI300A\u00bb, pero no estamos seguros de si se trata de un modelo personalizado para El Capit\u00e1n o de un n\u00famero de producto m\u00e1s formal.<\/p>\n
Supinski dijo que el chip viene con un Infinity Cache, pero no especific\u00f3 la capacidad disponible. Supinski tambi\u00e9n cit\u00f3 la importancia del nivel de memoria \u00fanico varias veces, y se\u00f1al\u00f3 c\u00f3mo el espacio de memoria unificado simplifica la programaci\u00f3n, ya que reduce las complejidades del movimiento de datos entre diferentes tipos de c\u00f3mputo y diferentes grupos de memoria.<\/p>\n
Supinski se\u00f1ala que el MI300 puede ejecutarse en varios modos diferentes, pero el modo principal consta de un solo dominio de memoria y un dominio NUMA, lo que proporciona una memoria de acceso uniforme para todos los n\u00facleos de CPU y GPU. La conclusi\u00f3n clave es que la memoria coherente con la cach\u00e9 reduce el movimiento de datos entre la CPU y la GPU, que a menudo consume m\u00e1s energ\u00eda que el propio c\u00e1lculo, lo que reduce la latencia y mejora el rendimiento y la eficiencia energ\u00e9tica. Supinksi tambi\u00e9n dice que fue relativamente f\u00e1cil transferir el c\u00f3digo de la supercomputadora Sierra a El Capit\u00e1n.<\/p>\n
El resto de las diapositivas de Supinski incluye informaci\u00f3n que AMD ya ha revelado, incluidas las proyecciones de rendimiento de 8 veces el rendimiento de la IA y 5 veces el rendimiento por vatio del MI250X.<\/p>\n
\n
\n
Imagen 1 de 7<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\nHPE est\u00e1 construyendo el sistema El Capitan basado en su arquitectura Shasta y la interconexi\u00f3n de redes Slingshot-11. Esta es la misma plataforma que alimenta las otras dos supercomputadoras a exaescala del DOE, Frontier, la supercomputadora m\u00e1s r\u00e1pida del mundo, y la a menudo retrasada Aurora que funciona con silicio Intel. <\/p>\n
La NNSA tuvo que construir m\u00e1s infraestructura para operar la supercomputadora Sierra y El Capit\u00e1n simult\u00e1neamente. Ese trabajo incluy\u00f3 reforzar la entrega de energ\u00eda dedicada a la computaci\u00f3n de 45 MW a 85 MW. Hay 15 MW adicionales de energ\u00eda disponibles para el sistema de enfriamiento, que se actualiz\u00f3 a 28 000 toneladas al agregar una nueva torre de enfriamiento de 18 000 toneladas. Eso le da al sitio un total de 100 MW de potencia, pero se espera que El Capit\u00e1n consuma menos de 40 MW, aunque el valor real podr\u00eda ser de alrededor de 30 MW; las cifras finales no se conocer\u00e1n hasta el despliegue.<\/p>\n
El Capit\u00e1n ser\u00e1 el primer Sistema de Tecnolog\u00eda Avanzada (ATS) que utiliza el Software de Sistema Operativo Tri-lab (TOSS) personalizado de NNSA, una pila de software completa construida en RHEL. <\/p>\n
Programa de almacenamiento de conejos de El Capit\u00e1n <\/h2>\n\n
\n
Imagen 1 de 4<\/p>\n
\n
\n
\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n\n
\n
\n
\n
\n\n
\n
\n
<\/div>\n<\/div>\n<\/div>\n<\/div>
(Cr\u00e9dito de la imagen: LLNL v\u00eda ISC 2023)<\/span><\/figcaption><\/figure>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n