El desarrollador de LLM respaldado por AMD se burla de la escasez de GPU con IA de NVIDIA


Un desarrollador de LLM con sede en AMD se burló de la escasez de GPU con IA de NVIDIA en un vídeo corto bastante interesante. La escasez de GPU de IA de NVIDIA se está convirtiendo en un problema importante para el sector de la IA, incluidas las nuevas empresas de IA que están empezando a trasladarse a otros campos para satisfacer su demanda.

El CEO de Lamini publica un video corto interesante que representa con precisión la escasez de GPU con IA de NVIDIA y prepara las GPU AMD Instinct

Lamini es una empresa centrada en LLM para empresas y desarrolladores que se centra en el desarrollo de IA. Su director ejecutivo Sharon Zhou apareció en X para expresar la frustración de varias nuevas empresas de IA, incluidas ellas mismas, por la falta de disponibilidad de las GPU de IA de NVIDIA, a través de un vídeo breve y divertido.

Sharon entra a una cocina (un escenario bastante icónico para el propio CEO de NVIDIA) en busca de un acelerador de IA LLM y abre un horno para ver qué se está «cocinando». Sin embargo, el tiempo de espera en el horno fue de hasta 52 semanas, pero luego revisó su parrilla y vio los aceleradores Instinct de AMD listos para ser usados.

La representación de Sharon de la situación actual es precisa, ya que las GPU con IA de NVIDIA, especialmente las H100, se enfrentan actualmente a enormes retrasos en los pedidos, con fechas de entrega que superan los seis meses. AMD tiene una ventaja aquí, ya que el volumen de pedidos de aceleradores Instinct AI que la compañía tiene actualmente no es nada comparado con lo que NVIDIA está cumpliendo. Lamini ha estado ejecutando las GPU Instinct de AMD en LLM desde hace un tiempo y la compañía está comprometida con una amplia cooperación con AMD.

Es más, con Lamini puedes dejar de preocuparte por el plazo de entrega de 52 semanas para las NVIDIA H100. Con Lamini exclusivamente, puede crear sus propios LLM empresariales y enviarlos a producción en las GPU AMD Instinct. Y shhhh… Lamini ha estado ejecutando en secreto más de cien GPU AMD en producción durante todo el año, incluso antes del lanzamiento de ChatGPT. Entonces, si probaste Lamini, entonces probaste AMD.

Ahora, estamos emocionados de abrir las GPU listas para LLM a más personas. Nuestra LLM Superstation está disponible tanto en la nube como en las instalaciones. Combina la infraestructura LLM empresarial fácil de usar de Lamini con los aceleradores AMD Instinct MI210 y MI250. Está optimizado para LLM de empresas privadas, diseñado para diferenciarse fuertemente con datos propietarios.

Lamini es la única plataforma LLM que se ejecuta exclusivamente en GPU AMD Instinct (en producción). ¡Envíe sus propios LLM patentados! Simplemente haga un pedido de LLM Superstation para ejecutar su propio Llama 2-70B listo para usar, disponible ahora y con un precio atractivo (10 veces menos que AWS).

vía Lamini

La industria aún no ha visto una adopción a gran escala de las GPU Instinct de AMD, y por ahora no han alcanzado el nivel de «popularidad» de las H100 de NVIDIA. Hablando de rendimiento, todos sabemos que los H100 están a la cabeza; sin embargo, AMD está cerrando la brecha aquí a través de rápidas mejoras dentro de su pila de software ROCm, lo que ayuda a un mayor rendimiento informático general. Team Red ha planeado el Instinct MI400 y el MI300X como lanzamientos futuros, pero aún no han llegado al mercado; por lo tanto, no podemos comentar al respecto.

La única ventaja que AMD puede aprovechar es la capacidad de la compañía para atender grandes pedidos, ya que NVIDIA está a la defensiva en este departamento. Con tiempos de espera de un año para las NVIDIA H100, las empresas y startups de LLM eventualmente mirarán a AMD e Intel, razón por la cual todas las empresas de tecnología están acelerando enormemente sus desarrollos de IA a medida que avanzan en 2024.

Fuente de noticias: Tom’s Hardware

Comparte esta historia

Facebook

Gorjeo





Source link-29