Nvidia obtiene hasta un 1000 % de beneficios por cada acelerador de GPU H100 que vende, según estimaciones realizadas en un publicación reciente en las redes sociales del escritor principal de Barron, Tae Kim. En términos de dólares, eso significa que el precio de venta al público de Nvidia de alrededor de $ 25,000 a $ 30,000 por cada uno de estos aceleradores de computación de alto rendimiento (HPC) (para la versión PCIe menos costosa) cubre con creces el costo estimado de $ 3,320 por chip y periférico (en- placa) componentes. Como te dirán los surfistas, no hay nada como surfear una ola sin ninguna otra tabla a la vista.
Kim cita el costo estimado de $ 3,320 para cada chip H100 como proveniente de la firma de consultoría financiera Raymond James. Sin embargo, no está claro qué tan profundo es ese análisis de costos: si se trata de un costo de fabricación puro (promediar el precio por oblea y otros componentes teniendo en cuenta los rendimientos), entonces todavía hay un margen de gastos significativo para que Nvidia cubra con cada de sus ventas.
El desarrollo de productos requiere tiempo y recursos; y teniendo en cuenta a los ingenieros y otros participantes dentro del ciclo de vida de desarrollo de un producto como H100, los costos de investigación y desarrollo de Nvidia también deben tenerse en cuenta antes de que se pueda alcanzar un costo de desarrollo de producto promedio final. Según Glassdoor, el salario promedio de Nvidia para un ingeniero de hardware electrónico es de alrededor de $ 202,000 por año. Y eso es para un solo ingeniero: es probable que el desarrollo de chips como el H100 requiera miles de horas de varios trabajadores especializados. Todo eso también hay que tenerlo en cuenta.
Aun así, no se puede negar que hay ventajas en ser la empresa líder en cargas de trabajo de aceleración de IA. Según todos los informes, las GPU de Nvidia están volando de los estantes sin siquiera personalizarse con los bastidores en los que están apiladas. Este artículo en particular parece ser el patio de recreo definitivo para cualquiera que intente comprender exactamente qué significa la logística detrás del auge de AI HPC. Sin embargo, lo que realmente se traduce es que parece que los pedidos de productos de aceleración de IA de Nvidia ya se han vendido hasta 2024. Y con las expectativas de que el mercado de aceleradores de IA valga alrededor de $ 150 mil millones para 2027, aparentemente no hay nada más en el futuro. pero verde
Y, por supuesto, ese auge es mejor para algunos que para otros: debido al creciente interés en los servidores de IA en comparación con las instalaciones de HPC más tradicionales, los fabricantes de DDR5 han tenido que revisar sus expectativas sobre cuánto penetrarán en el mercado los nuevos productos de memoria. Ahora se espera que la adopción de DDR5 solo alcance la paridad con DDR4 para el tercer trimestre de 2024.
La empresa está cosechando los beneficios de haber construido su infraestructura y su pila de productos sobre la base de sus herramientas y apuesta por la IA como el próximo gran avance.
Pero los presupuestos en todas partes tienden a tener límites, y también está la cuestión del costo de oportunidad: invertir en la aceleración de la IA a sus precios actuales cerrará las puertas de algunos jugadores a las inversiones en otros espacios, o limitará la cantidad de riesgos que pueden asumir al buscar soluciones menos seguras. centros de investigación y desarrollo.
Cuando todo esté dicho y hecho, el resultado final de Nvidia, impulsado por sus ventas de chips de IA, ahora podría cubrir cantidades insignificantes de chaquetas de cuero. Al menos desde esa perspectiva, el CEO de Nvidia, Jensen Huang, debe estar radiante de izquierda a derecha.