¿Cómo construir tu propia alternativa de ChatGPT a bajo precio? hay una manera


Por un par de miles de dólares al mes, ahora puede reservar la capacidad de una sola GPU Nvidia HGX H100 a través de una empresa llamada CoreWeave. El H100 es el sucesor del A100, la GPU que fue fundamental en el entrenamiento de ChatGPT en LLM (modelos de lenguaje grande). Los precios comienzan en $2.33 por hora, eso es $56 por día o alrededor de $20,000 por año; en comparación, un solo HGX H100 cuesta alrededor de $ 28,000 en el mercado abierto (NVH100TCGPU-KIT) y menos al por mayor.

Pagará más por los precios al contado ($ 4,76 por hora) y aunque hay un SKU más económico disponible (HGX H100 PCIe, a diferencia del modelo NVLINK), aún no se puede pedir. Una configuración de instancia de GPU válida debe incluir al menos una GPU, al menos una vCPU y al menos 2 GB de RAM. Al implementar un servidor privado virtual (VPS), la configuración de la instancia de GPU también debe incluir al menos 40 GB de almacenamiento de nivel NVMe en el disco raíz.



Source link-35