Tras los rumores de que el gobierno de EE. UU. podría prohibir las ventas de GPU de cómputo de alta gama a China, el precio de los chips A800 de Nvidia en el mercado chino ha aumentado considerablemente. El precio subió un 20% en solo dos semanas, según un informe de DigiTimes.
El precio estándar de la GPU de cómputo A800 de Nvidia en el factor de forma PCIecard era de alrededor de CNY90,000 (US$12,400) por unidad hace solo dos semanas. En este momento, el precio se acerca a los 110 000 CNY (15 000 USD) por unidad, lo que representa un aumento del 20 %.
El problema de los precios inflados de los chips, junto con la escasez apremiante de poder computacional en China, llamó la atención en la Conferencia Mundial de Inteligencia Artificial 2023. Adquirir chips de inteligencia artificial de alta gama a través de rutas oficiales en China se ha vuelto cada vez más difícil. Y como resultado, las empresas tecnológicas chinas que necesitan poder de cómputo han recurrido a la utilización de servicios de computación en la nube proporcionados por compañías como Amazon AWS y Microsoft Azure. Estos servicios se utilizan normalmente para tareas de entrenamiento de modelos de lenguaje grandes, con centros de datos ubicados en Singapur o China.
Chen Pei, vicepresidente de Vibranium Consulting, afirmó que arrendar la potencia computacional de GPU en la nube es notablemente más costoso que construir sus propios clústeres de computación GPU, con precios para los grandes proveedores de nube que oscilan entre $ 2 y $ 3 por hora por GPU. Haciéndose eco de esto, Sun Jin de CloudWalk Technology, una firma china de inteligencia artificial y visión por computadora, reveló que las empresas chinas a menudo no tienen otra opción que asumir los altos costos de arrendar el poder de la computación en la nube. Esto sucede a pesar de que estos costos son entre un 50 % y un 100 % más altos que establecer sus propios centros de datos.
Sin embargo, la capacidad de los proveedores chinos para continuar usando servicios de computación en la nube basados en EE. UU. como AWS y Azure en el futuro es incierta, ya que esto dependerá de las medidas regulatorias que tome el gobierno de EE. UU., lo que podría implicar la necesidad de licencias o incluso una prohibición completa.
La industria informática de China se enfrenta a múltiples desafíos importantes, incluido el lento proceso de creación de clústeres informáticos de IA, las dificultades para adquirir chips de IA de gama alta en el extranjero y la escasez de chips de IA de producción nacional, como los BR104 y BR100 de Biren. A la luz de las posibles limitaciones para acceder a la potencia informática en la nube de Europa y EE. UU., existe una expectativa creciente de que los fabricantes chinos de semiconductores se centren únicamente en refinar sus procesos de fabricación de chips y avancen progresivamente en la innovación de software.
Fila 0 – Celda 0 | Biren BR104 | Nvidia A800 | Nvidia A100 | Nvidia H100 |
Factor de forma | Tarjeta FHFL | Tarjeta FHFL (?) | SXM4 | SXM5 |
Recuento de transistores | ? | 54,2 mil millones | 54,2 mil millones | 80 mil millones |
Nodo | N7 | N7 | N7 | 4N |
Fuerza | 300W | ? | 400W | 700W |
FP32 TFLOPS | 128 | 13.7 (?) | 19.5 | 60 |
TF32+ TFLOPS | 256 | ? | ? | ? |
TF32 TFLOPS | ? | 109/218* (?) | 156/312* | 500/1000* |
FP16 TFLOPS | ? | 56 (?) | 78 | 120 |
Tensor FP16 TFLOPS | ? | 218/437* | 312/624* | 1000/2000* |
BF16 TFLOPS | 512 | 27 | 39 | 120 |
Tensor BF16 TFLOPS | ? | 218/437* | 312/624* | 1000/2000* |
INT8 | 1024 | ? | ? | ? |
Tensor INT8 TFLOPS | ? | 437/874* | 624/1248* | 2000/4000* |