Cada vez que escribe una solicitud en ChapGPT para obtener consejos de cocina, recomendaciones de TV o para hacer su tarea (se abre en una pestaña nueva), le cuesta dinero a OpenAI. Pero, ¿cuánto, exactamente? Mantener en funcionamiento el chatbot generativo de IA podría costarle a la empresa de tecnología hasta un millón de dólares diarios.
La información (se abre en una pestaña nueva) (a través de ComputerBase (se abre en una pestaña nueva)) informa que, en parte debido a los costos exorbitantes de ejecutar ChatGPT, se cree que OpenAI casi duplicó sus pérdidas a alrededor de $ 540 millones el año pasado. Vale la pena señalar que estos números provienen de estimaciones de analistas en lugar de informes financieros actualizados, por lo que no pueden tratarse como 100% precisos. Pero sabemos que algunos de los mayores gastos incluyen esos dolorosamente altos costos diarios de infraestructura y el hecho de que la compañía ha estado cazando furtivamente a los mejores talentos de Google y Apple.
Según un informe anterior (se abre en una pestaña nueva), se necesita una potencia informática inmensa para cumplir con los millones de consultas diarias en ChatGPT de OpenAI. Según los informes, el chatbot generativo de IA le cuesta a la compañía entre $ 700,000 y $ 1 millón por día.
Dylan Patel, analista jefe de SemiAnalysis, dijo a The Information que la mayor parte del costo «se basa en los servidores costosos que requieren» y que esas estimaciones se basaron en el modelo GPT-3, no en el GPT-4 actual que está usando OpenAI. Entonces, esas cifras posiblemente sean bastante conservadoras considerando la complejidad adicional y, por lo tanto, el costo de cada consulta GPT-4.
Tenga en cuenta que estas estimaciones también provienen de antes del lanzamiento de ChatGPT Plus pago de OpenAI (se abre en una pestaña nueva)servicio premium, que se puso en marcha este año. Ese servicio brinda respuestas más rápidas a las consultas y prioridad durante las horas pico. OpenAI espera alcanzar $200 millones en ventas este año y predice $1 mil millones para el próximo año, lo que podría ayudar a compensar algunos de los costos masivos y tal vez incluso revertir ese déficit.
Jensen Huang, entusiasta de la IA y CEO de Nvidia (que está haciendo dinero con las GPU que alimentan esos costosos servidores), predijo recientemente que los futuros modelos de IA exigirán aún más potencia en los próximos diez años. (se abre en una pestaña nueva). El jefe de Nvidia también dijo que pronto deberíamos esperar ver «fábricas de IA en todo el mundo» impulsando varias tecnologías de IA.
Esto significa que la reciente inversión de $ 10 mil millones de Microsoft (se abre en una pestaña nueva) en OpenAI no podría haber llegado en mejor momento. Según el informe, el director ejecutivo de OpenAI, Sam Altman, también busca recaudar hasta 100.000 millones de dólares en los próximos años.
Para ayudar a reducir estos costos, Microsoft ha estado trabajando con AMD para producir su propio chip de IA interno. (se abre en una pestaña nueva), Atenea, durante los últimos cuatro años. Este nuevo chip podría lanzarse el próximo año y debería ser más rentable que usar GPU Nvidia para ejecutar modelos de IA.