{"id":653171,"date":"2023-05-29T12:51:50","date_gmt":"2023-05-29T12:51:50","guid":{"rendered":"https:\/\/magazineoffice.com\/reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu\/"},"modified":"2023-05-29T12:51:56","modified_gmt":"2023-05-29T12:51:56","slug":"reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/reduzca-el-costo-de-la-capacitacion-de-cpu-en-un-llm-de-10-millones-a-solo-400000-usd-al-comprar-nuestras-gpu\/","title":{"rendered":"Reduzca el costo de la capacitaci\u00f3n de CPU en un LLM de $ 10 millones a solo $ 400,000 USD al comprar nuestras GPU"},"content":{"rendered":"


\n<\/p>\n

\n

NVIDIA ha criticado bastante a toda la industria de las CPU en Computex 2023. Jensen subi\u00f3 al escenario en el primer show en vivo despu\u00e9s de 4 a\u00f1os y declar\u00f3 con audacia (y con bastante acierto) que la IA generativa y la computaci\u00f3n acelerada son el futuro de la computaci\u00f3n. Al leer un elogio a la sabidur\u00eda convencional de la Ley de Moore, declar\u00f3 que el tiempo en el que pod\u00eda obtener una velocidad 10x en 5 a\u00f1os manteniendo la misma potencia y el mismo costo se acab\u00f3. En el futuro, la mayor\u00eda de las aceleraciones provendr\u00e1n de la IA generativa y los enfoques basados \u200b\u200ben computaci\u00f3n acelerada. Tambi\u00e9n comparti\u00f3 un TCO absolutamente encantador con la audiencia:<\/p>\n

NVIDIA presenta un an\u00e1lisis de TCO de modelo de lenguaje grande (LLM) en Comptuex:<\/h2>\n

Comencemos con la l\u00ednea de base primero. Se necesitan servidores de 10 millones de d\u00f3lares basados \u200b\u200ben CPU 960 para entrenar 1 LLM (modelo de lenguaje grande). Para ser claros, NVIDIA calcul\u00f3 el costo total del cl\u00faster de servidores necesario para entrenar un solo modelo de lenguaje grande (incluidas las redes, la carcasa, las interconexiones, todo) y descubri\u00f3 que se necesitaron aproximadamente $ 10 millones de d\u00f3lares y un consumo de energ\u00eda de 11 GWh para entrenar un \u00fanico modelo de lenguaje grande.<\/p>\n

<\/figure>\n

Por otro lado, si mantiene el mismo costo y compra un cl\u00faster de GPU de $ 10 millones, puede entrenar 44 modelos de lenguaje grandes por el mismo costo y una fracci\u00f3n del costo de energ\u00eda (3.2 GWh). Este escenario se denomina costo ISO en un an\u00e1lisis de TCO (manteniendo el mismo costo irrecuperable).<\/p>\n

\"\"<\/figure>\n

Si cambia a la potencia ISO o mantiene el mismo consumo de energ\u00eda, puede lograr una aceleraci\u00f3n de 150x al entrenar 150 LLM con el mismo consumo de energ\u00eda de 11 GWh a un costo de $ 34 millones de d\u00f3lares. La huella de este cl\u00faster a\u00fan ser\u00eda significativamente menor que la del cl\u00faster de CPU.<\/p>\n

\"\"<\/figure>\n

Finalmente, si quisiera mantener la carga de trabajo exactamente igual, solo necesitar\u00eda un servidor GPU de $ 400,000 USD que consume 0.13 GWh para entrenar un solo LLM. Esencialmente, lo que dice NVIDIA es que puede entrenar un LLM con solo el 4 % del costo y solo el 1,2 % del consumo de energ\u00eda, lo que representa una reducci\u00f3n enorme en comparaci\u00f3n con los servidores basados \u200b\u200ben CPU.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n


\n
Source link-29 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

NVIDIA ha criticado bastante a toda la industria de las CPU en Computex 2023. Jensen subi\u00f3 al escenario en el primer show en vivo despu\u00e9s de 4 a\u00f1os y declar\u00f3…<\/p>\n","protected":false},"author":1,"featured_media":653172,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[9297,929,5246,21393,4256,86655,1576,5990,22473,1126,15077],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/653171"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=653171"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/653171\/revisions"}],"predecessor-version":[{"id":653173,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/653171\/revisions\/653173"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/653172"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=653171"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=653171"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=653171"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}