{"id":653171,"date":"2023-05-29T12:51:50","date_gmt":"2023-05-29T12:51:50","guid":{"rendered":"https:\/\/magazineoffice.com\/reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu\/"},"modified":"2023-05-29T12:51:56","modified_gmt":"2023-05-29T12:51:56","slug":"reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu\/","title":{"rendered":"Reduzca el costo de la capacitaci\u00f3n de CPU en un LLM de $ 10 millones a solo $ 400,000 USD al comprar nuestras GPU"},"content":{"rendered":"
\n<\/p>\n
NVIDIA ha criticado bastante a toda la industria de las CPU en Computex 2023. Jensen subi\u00f3 al escenario en el primer show en vivo despu\u00e9s de 4 a\u00f1os y declar\u00f3 con audacia (y con bastante acierto) que la IA generativa y la computaci\u00f3n acelerada son el futuro de la computaci\u00f3n. Al leer un elogio a la sabidur\u00eda convencional de la Ley de Moore, declar\u00f3 que el tiempo en el que pod\u00eda obtener una velocidad 10x en 5 a\u00f1os manteniendo la misma potencia y el mismo costo se acab\u00f3. En el futuro, la mayor\u00eda de las aceleraciones provendr\u00e1n de la IA generativa y los enfoques basados \u200b\u200ben computaci\u00f3n acelerada. Tambi\u00e9n comparti\u00f3 un TCO absolutamente encantador con la audiencia:<\/p>\n
Comencemos con la l\u00ednea de base primero. Se necesitan servidores de 10 millones de d\u00f3lares basados \u200b\u200ben CPU 960 para entrenar 1 LLM (modelo de lenguaje grande). Para ser claros, NVIDIA calcul\u00f3 el costo total del cl\u00faster de servidores necesario para entrenar un solo modelo de lenguaje grande (incluidas las redes, la carcasa, las interconexiones, todo) y descubri\u00f3 que se necesitaron aproximadamente $ 10 millones de d\u00f3lares y un consumo de energ\u00eda de 11 GWh para entrenar un \u00fanico modelo de lenguaje grande.<\/p>\n