{"id":534572,"date":"2023-03-24T07:58:28","date_gmt":"2023-03-24T07:58:28","guid":{"rendered":"https:\/\/magazineoffice.com\/como-construir-tu-propia-alternativa-de-chatgpt-a-bajo-precio-hay-una-manera\/"},"modified":"2023-03-24T07:58:31","modified_gmt":"2023-03-24T07:58:31","slug":"como-construir-tu-propia-alternativa-de-chatgpt-a-bajo-precio-hay-una-manera","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/como-construir-tu-propia-alternativa-de-chatgpt-a-bajo-precio-hay-una-manera\/","title":{"rendered":"\u00bfC\u00f3mo construir tu propia alternativa de ChatGPT a bajo precio? hay una manera"},"content":{"rendered":"


\n<\/p>\n

\n

Por un par de miles de d\u00f3lares al mes, ahora puede reservar la capacidad de una sola GPU Nvidia HGX H100 a trav\u00e9s de una empresa llamada CoreWeave<\/u>. El H100 es el sucesor del A100, la GPU que fue fundamental en el entrenamiento de ChatGPT en LLM (modelos de lenguaje grande). Los precios comienzan en $2.33 por hora, eso es $56 por d\u00eda o alrededor de $20,000 por a\u00f1o; en comparaci\u00f3n, un solo HGX H100 cuesta alrededor de $ 28,000 en el mercado abierto (NVH100TCGPU-KIT<\/u>) y menos al por mayor.<\/p>\n

Pagar\u00e1 m\u00e1s por los precios al contado ($ 4,76 por hora) y aunque hay un SKU m\u00e1s econ\u00f3mico disponible (HGX H100 PCIe, a diferencia del modelo NVLINK), a\u00fan no se puede pedir. Una configuraci\u00f3n de instancia de GPU v\u00e1lida debe incluir al menos una GPU, al menos una vCPU y al menos 2 GB de RAM. Al implementar un servidor privado virtual (VPS<\/u>), la configuraci\u00f3n de la instancia de GPU tambi\u00e9n debe incluir al menos 40 GB de almacenamiento de nivel NVMe en el disco ra\u00edz.<\/p>\n