Todo el mundo parece estar hablando de ChatGPT hoy en día gracias a Microsoft Bing, pero dada la naturaleza de los modelos de lenguaje grande (LLM), se perdonaría a un jugador si siente un cierto déjà vu.
Mira, a pesar de que los LLM se ejecutan en enormes servidores en la nube, usan GPU especiales para realizar todo el entrenamiento que necesitan para ejecutarse. Por lo general, esto significa alimentar una cantidad de datos francamente obscena a través de redes neuronales que se ejecutan en una matriz de GPU con núcleos de tensor sofisticados, y esto no solo requiere mucha potencia, sino que también requiere una gran cantidad de GPU reales para hacerlo a escala.
Esto se parece mucho a la criptominería, pero tampoco lo es. La criptominería no tiene nada que ver con los algoritmos de aprendizaje automático y, a diferencia del aprendizaje automático, el único valor de la criptominería es producir un producto digital altamente especulativo llamado token que algunas personas piensan que vale algo y, por lo tanto, están dispuestas a gastar dinero real en él.
Esto dio lugar a una criptoburbuja que provocó una escasez de GPU en los últimos dos años cuando los criptomineros compraron todas las tarjetas gráficas Nvidia Ampere desde 2020 hasta 2022, dejando a los jugadores sin nada. Esa burbuja ahora ha estallado y el stock de GPU ahora se ha estabilizado.
Pero con el auge de ChatGPT, ¿estamos a punto de ver una repetición de los últimos dos años? Es poco probable, pero tampoco está fuera de discusión.
Su tarjeta gráfica no impulsará los principales LLM
Si bien puede pensar que la mejor tarjeta gráfica que puede comprar podría ser el tipo de cosas que los tipos de aprendizaje automático podrían querer para sus configuraciones, estaría equivocado. A menos que esté en una universidad y esté investigando algoritmos de aprendizaje automático, una tarjeta gráfica de consumo no será suficiente para impulsar el tipo de algoritmo que necesita.
La mayoría de los LLM y otros modelos generativos de IA que producen imágenes o música realmente ponen énfasis en la primera L: Grande. ChatGPT ha procesado una cantidad inconmensurablemente grande de texto, y una GPU de consumo no es realmente como adecuado para esa tarea como GPU de potencia industrial que se ejecutan en una infraestructura de clase de servidor.
Estas son las GPU que van a tener una gran demanda, y esto es lo que tiene a Nvidia tan entusiasmada con ChatGPT: no es que ChatGPT ayude a las personas, sino que ejecutarlo requerirá casi todas las GPU de nivel de servidor de Nvidia, lo que significa Nvidia está a punto de aprovechar la emoción de ChatGPT.
El próximo ChatGPT se ejecutará en la nube, no en hardware local.
A menos que sea Google o Microsoft, no está ejecutando su propia infraestructura LLM. Está utilizando el de otra persona en forma de servicios en la nube. Eso significa que no vas a tener un montón de nuevas empresas comprando todas las tarjetas gráficas para desarrollar sus propios LLM.
Lo más probable es que veamos LLMaaS, o modelos de lenguaje grande como servicio. Tendrá centros de datos de Microsoft Azure o Amazon Web Services con enormes granjas de servidores llenas de GPU listas para alquilar para sus algoritmos de aprendizaje automático. Este es el tipo de cosas que aman las startups. Odian comprar equipo que no sea una mesa de ping-pong o un puf.
Eso significa que a medida que proliferen ChatGPT y otros modelos de IA, no se ejecutarán localmente en hardware de consumo, incluso cuando las personas que lo ejecutan sean un pequeño equipo de desarrolladores. Se ejecutarán en hardware de nivel de servidor, por lo que nadie vendrá por su tarjeta gráfica.
Los jugadores aún no están fuera de peligro
Entonces, ¿no hay nada de qué preocuparse entonces? Bien…
La cuestión es que, si bien su RTX 4090 podría estar a salvo, la pregunta es cuántos RTX 5090 fabricará Nvidia cuando solo tenga una cantidad limitada de silicio a su disposición, y usar ese silicio para GPU de servidor puede ser sustancialmente más rentable que ¿Usarlo para una tarjeta gráfica GeForce?
Si hay algo que temer del auge de ChatGPT, en realidad, es la posibilidad de que se fabriquen menos GPU de consumo porque los accionistas exigen que se produzcan más GPU de servidor para maximizar las ganancias. Esa tampoco es una amenaza ociosa, ya que, tal como están escritas actualmente las reglas del capitalismo, las empresas a menudo deben hacer lo que sea que maximice los beneficios para los accionistas, y la nube siempre será más rentable que vender tarjetas gráficas a los jugadores.
Por otro lado, esto es realmente una cosa de Nvidia. Team Green podría apostar por las GPU de servidor con un stock reducido de tarjetas gráficas de consumo, pero no son los únicos que fabrican tarjetas gráficas.
Las tarjetas gráficas AMD RDNA 3 acaban de presentar el hardware de IA, pero esto no se parece en nada a los núcleos tensoriales de las tarjetas Nvidia, lo que convierte a Nvidia en la opción de facto para el uso del aprendizaje automático. Eso significa que AMD podría convertirse en el fabricante de tarjetas predeterminado para los jugadores, mientras que Nvidia pasa a otra cosa.
Definitivamente es posible y, a diferencia de la criptografía, no es probable que AMD sea una tarjeta LLM de segunda clase que aún sea buena para LLM si no poder obtener una tarjeta Nvidia. AMD realmente no está equipado para el aprendizaje automático en absoluto, especialmente no al nivel que requieren los LLM, por lo que AMD simplemente no es un factor aquí. Eso significa que siempre habrá tarjetas gráficas de nivel de consumidor para los jugadores, y también buenas, es posible que no haya tantas tarjetas Nvidia como antes.
A los partidarios del Equipo Verde puede que no les guste ese futuro, pero es el más probable dado el surgimiento de ChatGPT.