AMD dice que la IA es su prioridad estratégica número 1 con Instinct MI300 a la cabeza a finales de este año


AMD también está apostando su futuro a la IA como señaló la directora ejecutiva, la Dra. Lisa Su, durante la reciente llamada de ganancias e Instinct MI300 liderará el cargo.

La principal prioridad estratégica de AMD es la IA, el Instinct MI300 de próxima generación se acerca al lanzamiento y EPYC Bergamo / Genoa-X está listo para el segundo trimestre de 2023

El CEO de AMD afirma que la IA tiene y será su estrategia número uno para avanzar y están trabajando para obtener el hardware y el software necesarios para satisfacer la creciente demanda de IA de manera prioritaria. El equipo rojo tiene varios productos que se centran en la IA próximamente, que incluyen Instinct MI300, Ryzen 7040 «Phoenix APU» con Ryzen AI y una gama de aceleradores SoC / HPC para centros de datos.

Estamos muy entusiasmados con nuestra oportunidad en IA. Esta es nuestra prioridad estratégica número 1, y estamos comprometiéndonos profundamente con nuestro conjunto de clientes para traer soluciones conjuntas al mercado, liderados por nuestras próximas GPU instinto MI300, CPU Ryzen serie 7040 con Ryzen AI, Zynq UltraScale+ MPSoC, centro de datos LVO V70 aceleradores de inferencia y centros de datos adaptables Versal AI y SoC de borde.

CEO de AMD, Dra. Lisa Su

Para AMD, la IA tiene un mercado más amplio y muchas más aplicaciones en comparación con el segmento de la nube. Incluye lo que la empresa ya está haciendo en el segmento de clientes y embebidos. Hablando de su acelerador de APU Instinct MI300, la APU de exaescala se adapta a los requisitos de la IA al igual que los ecosistemas de supercomputación y HPC. Pero AMD dice que el Instinct MI300 ha evolucionado en los últimos meses.

La compañía está trabajando para expandir la tubería de su acelerador Instinct MI300 y la IA generativa ha experimentado un progreso considerable. AMD está utilizando su destreza Xilinix para impulsar y acelerar el trabajo relacionado con el software de IA, así como con toda la plataforma de IA generativa.

Ahora, en lo que se refiere a su pregunta sobre el MI300, mire, estamos muy entusiasmados con la oportunidad de la IA. Creo que el éxito para nosotros es tener una parte importante de la oportunidad general de la IA. Para nosotros, la IA es más amplia que la nube. Quiero decir que también incluye lo que estamos haciendo en Clientes e Integrados.

Pero específicamente, en lo que se refiere a MI300, MI300 está realmente bien posicionado tanto para cargas de trabajo de HPC o supercomputación como para cargas de trabajo de IA. Y con el interés reciente en la IA generativa, diría que la tubería para MI300 se ha expandido considerablemente aquí en los últimos meses, y estamos entusiasmados con eso. Estamos poniendo muchos más recursos. Mencioné en los comentarios preparados, el trabajo que estamos haciendo, tomando nuestro Xilinx y los esfuerzos generales de IA de AMD y combinándolos en una organización que es principalmente para acelerar nuestro trabajo de software de IA, así como el trabajo de la plataforma.

Por lo tanto, el éxito de MI3100 es seguro, una parte importante del crecimiento de la IA en la nube. Y creo que nos sentimos bien acerca de cómo estamos posicionados allí.

CEO de AMD, Dra. Lisa Su

Hablando de cuándo AMD lanzará los aceleradores Instinct MI300, el chip comenzará su aumento inicial de ingresos en el cuarto trimestre de 2023 cuando se envíe a los primeros clientes de inteligencia artificial en la nube y se espera un retorno de ingresos más significativo en 2024. Puede leer más sobre las especificaciones de el diseño multi-chiplet y multi-IP que es el MI300 aquí.

Mencionamos en los comentarios preparados parte del trabajo que se realizó en la supercomputadora LUMI con modelos generativos de IA. Seguimos optimizando bastante la biblioteca con el MI250 y la optimización del software para garantizar realmente que pudiéramos aumentar el rendimiento y las capacidades generales. MI300 se ve muy bien. Creo que por todo lo que vemos, las cargas de trabajo también han cambiado un poco en términos de, mientras que hace un año, gran parte de la conversación se centraba principalmente en la capacitación.

Hoy, eso ha migrado a una especie de inferencia de modelo de lenguaje grande, que es particularmente bueno para las GPU. Así que creo que, desde el punto de vista de MI300, creemos que comenzaremos a aumentar los ingresos en el cuarto trimestre con los clientes de inteligencia artificial en la nube y luego será más significativo en 2024.

CEO de AMD, Dra. Lisa Su

AMD reafirmó además que sus CPU EPYC Bergamo con los nuevos núcleos Zen 4C se lanzarán más adelante este trimestre. También se espera que los chips Genoa-X con núcleos Zen 4 potenciados con 3D V-Cache se envíen a finales de este trimestre.

Estamos en camino de lanzar Bergamo, nuestra primera CPU de servidor nativa de la nube y Genoa, nuestro procesador EPYC de cuarta generación con chipsets 3D para liderar las cargas de trabajo informáticas técnicas a finales de este trimestre. Si bien esperamos que la demanda de servidores se mantenga mixta en el segundo trimestre, estamos bien posicionados para aumentar nuestra presencia en la nube y empresarial en la segunda mitad del año en función de la sólida respuesta de los clientes al rendimiento y las ventajas del TCO de Génova, Bérgamo y Generación X.

CEO de AMD, Dra. Lisa Su

AMD ahora está siguiendo los pasos de NVIDIA para asegurarse de obtener una parte de la IA. La demanda de GPU AI de NVIDIA ha experimentado un gran crecimiento en los últimos meses. La compañía experimentó un importante aumento en la capitalización de mercado recientemente. AMD no solo está esperando que los servidores Instinct MI300 pongan en marcha sus empresas de IA, sino que también está trabajando para optimizar los aceleradores MI250 existentes para satisfacer la demanda de IA.

Comparte esta historia

Facebook

Gorjeo



Source link-29