{"id":491515,"date":"2023-03-02T09:24:51","date_gmt":"2023-03-02T09:24:51","guid":{"rendered":"https:\/\/magazineoffice.com\/justo-cuando-pensabamos-que-estabamos-a-salvo-chatgpt-viene-por-nuestras-tarjetas-graficas\/"},"modified":"2023-03-02T09:24:54","modified_gmt":"2023-03-02T09:24:54","slug":"justo-cuando-pensabamos-que-estabamos-a-salvo-chatgpt-viene-por-nuestras-tarjetas-graficas","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/justo-cuando-pensabamos-que-estabamos-a-salvo-chatgpt-viene-por-nuestras-tarjetas-graficas\/","title":{"rendered":"Justo cuando pens\u00e1bamos que est\u00e1bamos a salvo, ChatGPT viene por nuestras tarjetas gr\u00e1ficas"},"content":{"rendered":"


\n<\/p>\n

\n

Todo el mundo parece estar hablando de ChatGPT hoy en d\u00eda gracias a Microsoft Bing, pero dada la naturaleza de los modelos de lenguaje grande (LLM), se perdonar\u00eda a un jugador si siente un cierto d\u00e9j\u00e0 vu.<\/p>\n

Mira, a pesar de que los LLM se ejecutan en enormes servidores en la nube, usan GPU especiales para realizar todo el entrenamiento que necesitan para ejecutarse. Por lo general, esto significa alimentar una cantidad de datos francamente obscena a trav\u00e9s de redes neuronales que se ejecutan en una matriz de GPU con n\u00facleos de tensor sofisticados, y esto no solo requiere mucha potencia, sino que tambi\u00e9n requiere una gran cantidad de GPU reales para hacerlo a escala.<\/p>\n