Justo cuando pensábamos que estábamos a salvo, ChatGPT viene por nuestras tarjetas gráficas


Todo el mundo parece estar hablando de ChatGPT hoy en día gracias a Microsoft Bing, pero dada la naturaleza de los modelos de lenguaje grande (LLM), se perdonaría a un jugador si siente un cierto déjà vu.

Mira, a pesar de que los LLM se ejecutan en enormes servidores en la nube, usan GPU especiales para realizar todo el entrenamiento que necesitan para ejecutarse. Por lo general, esto significa alimentar una cantidad de datos francamente obscena a través de redes neuronales que se ejecutan en una matriz de GPU con núcleos de tensor sofisticados, y esto no solo requiere mucha potencia, sino que también requiere una gran cantidad de GPU reales para hacerlo a escala.



Source link-35