AMD prepara GPU para desafiar el dominio de Nvidia en el mercado de IA generativa


Nvidia ha estado dominando el mercado de chips capaces de entrenar programas generativos de inteligencia artificial, pero AMD ahora está tratando de reclamar su parte del pastel a través de una nueva GPU de nivel empresarial.

La compañía anunció hoy el AMD Instinct MI300X, un chip llamado «acelerador» diseñado para entrenar modelos de lenguaje grandes que pueden impulsar programas como ChatGPT de OpenAI.

“La IA es realmente la tecnología definitoria que está dando forma a la próxima generación de computación y, francamente, es la oportunidad de crecimiento a largo plazo más grande y estratégica de AMD”, dijo la directora ejecutiva de AMD, Lisa Su, durante la presentación del producto.(Se abre en una nueva ventana).

El MI300X intenta vencer a la competencia al presentar hasta 192 GB de memoria HMB3 «líder en la industria» mientras se basa en el CDNA 3 centrado en el centro de datos de AMD.(Se abre en una nueva ventana) arquitectura, que está pensada para cargas de trabajo basadas en IA. Los clientes podrán empaquetar ocho aceleradores MI300X en un solo sistema, lo que permitirá que las GPU entrenen modelos de IA más grandes que los de la competencia.

Lisa Su hablando de la GPU

(Crédito: AMD)

“Para los modelos más grandes, en realidad reduce la cantidad de GPU que necesita, lo que acelera significativamente el rendimiento, especialmente para la inferencia, además de reducir los costos totales de propiedad”, dijo Su.

El MI300X también se basa en el otro chip centrado en la IA de AMD, el MI300A, que está programado para llegar a las supercomputadoras. La diferencia es que la compañía cambió los chipsets de CPU Zen 4 en el MI300A, convirtiendo el MI300X en un procesador GPU puro.

“Es posible que vea que se ve muy, muy similar al MI300A, porque básicamente quitamos tres chipsets y pusimos dos (GPU) y apilamos más memoria HBM3”, agregó Su. “Realmente diseñamos este producto para la IA generativa”.

Demostración de AMD de la GPU que ejecuta un modelo de lenguaje grande

(Crédito: AMD)

En una demostración, Su también mostró un solo MI300X equipado con 192 GB de memoria que ejecuta el modelo de lenguaje grande de código abierto, Falcon-40B. Se le pidió al programa que escribiera un poema sobre San Francisco y creó el texto en varios segundos.

Recomendado por Nuestros Editores

“Lo especial de esta demostración es que es la primera vez que un modelo de lenguaje grande de este tamaño se puede ejecutar completamente en la memoria en una sola GPU”, agregó.

El nuevo hardware llegará ya que Nvidia espera que sus ventas se disparen en los próximos trimestres, gracias a la demanda de chatbots generativos de IA. Para desarrollar la tecnología, las empresas de la industria han estado comprando la GPU A100 de Nvidia, que puede costar alrededor de $ 10,000. Además, Nvidia también está vendiendo la GPU H100, que ahora se puede configurar con hasta 188 GB de memoria HMB3.

AMD dice que comenzará a probar su propio producto rival, el MI300X, para clientes clave a partir del tercer trimestre. La compañía agrega que prevé que el mercado de chips para centros de datos diseñados para IA generativa alcance los 150.000 millones de dólares en 2027, frente a los 30.000 millones de dólares de este año.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38