Biren, un desarrollador chino de GPU de cómputo, está considerando una oferta pública inicial (OPI) en Hong Kong este año. Esto se produce cuando los clientes nacionales prefieren cada vez más sus chips de IA a los de Nvidia, que son caros y escasos, según un informe de Bloomberg. Con la esperanza de aprovechar esta oportunidad, la startup tecnológica se está posicionando para capitalizar la mayor demanda de sus productos.
Se espera que Biren solicite su primera venta de acciones en las próximas semanas, según el informe que cita fuentes anónimas. Al mismo tiempo, Biren está negociando con inversores potenciales, incluidos fondos respaldados por el gobierno en Guangzhou. Estas discusiones se centran en otra ronda independiente de financiación que podría generar unos 2.000 millones de yuanes (279 millones de dólares). Biren buscaba recaudar fondos el año pasado con una valoración de 17.000 millones de yuanes, que son aproximadamente 2.400 millones de dólares. Por ahora, Biren aún tiene que determinar el alcance de la oferta pública inicial, junto con el plazo exacto.
La razón por la que Biren confía tanto en su valoración es que los productos de la empresa parecen competitivos en comparación con las GPU de cómputo de Nvidia (al menos en papel) y el mercado de GPU de cómputo con capacidad de IA está en auge en estos días.
La primera familia de GPU de cómputo de Biren consta de dos opciones: la BR100 y la BR104. El BR104 «básico» ofrece un rendimiento de hasta 128 FP32 TFLOPS o 1 INT8 PetaFLOPS, mientras que el BR100 de gama alta, que consiste esencialmente en dos BR104 en un intercalador de silicio, ofrece un rendimiento de hasta 256 FP32 TFLOPS o 2 INT8 PetaFLOPS. El BR104 de nivel medio viene con 32 GB de memoria HBM2E, utilizando una interfaz de 2048 bits que proporciona un ancho de banda de 819 GB/s. Por el contrario, el BR100 premium está equipado con 64 GB de memoria HBM2E, con una interfaz de 4096 bits con un ancho de banda de 1,64 TB/s.
Celda de encabezado – Columna 0 | Biren BR104 | Biren BR100 | Nvidia A100 | Nvidia H100 |
---|---|---|---|---|
Factor de forma | Tarjeta FHFL | Módulo OAM | SXM4 | SXM5 |
Recuento de transistores | ? | 77 mil millones | 54,2 mil millones | 80 mil millones |
Nodo | N7 | N7 | N7 | 4N |
Fuerza | 300W | 550W | 400W | 700W |
FP32 TFLOPS | 128 | 256 | 19.5 | 60 |
TF32+ TFLOPS | 256 | 512 | ? | ? |
TF32 TFLOPS | ? | ? | 156/312* | 500/1000* |
FP16 TFLOPS | ? | ? | 78 | 120 |
Tensor FP16 TFLOPS | ? | ? | 312/624* | 1000/2000* |
BF16 TFLOPS | 512 | 1024 | 39 | 120 |
Tensor BF16 TFLOPS | ? | ? | 312/624* | 1000/2000* |
INT8 | 1024 | 2048 | ? | ? |
Tensor INT8 TFLOPS | ? | ? | 624/1248* | 2000/4000* |
Hay otra razón para el optimismo de Biren. Sus esfuerzos de recaudación de fondos coinciden con el vigoroso impulso del gobierno chino para hacer avanzar su industria nacional de semiconductores. Este movimiento es una respuesta a una campaña liderada por EE. UU. que impidió que las empresas chinas adquirieran numerosas GPU de cómputo de AMD, Intel y Nvidia, todas las cuales compiten contra los productos de Biren. Dado que los productos de Nvidia son caros y escasos, según los informes de los medios, Biren puede vender más GPU, al menos a las empresas que no utilizan la pila de software CUDA de Nvidia para sus cargas de trabajo de IA.
Pero Biren también enfrenta numerosos desafíos. El año pasado, TSMC detuvo temporalmente los envíos de GPU de cómputo a Biren en un intento por asegurarse de que cumplieran con las normas de exportación de EE. UU. en términos de rendimiento y capacidades. Esto obligó a la empresa a reducir su plantilla para reducir costes. Aparentemente, Biren puede obtener suficiente silicio por ahora, por lo que su trabajo principal en este momento es garantizar que su paquete de software sea competitivo en comparación con los de Nvidia, Intel y AMD.
En este campo, Nvidia es extremadamente difícil de superar. La empresa ha pasado casi dos décadas refinando CUDA y en los últimos años invirtió cientos de millones en hacer de la plataforma CUDA la preferida para el desarrollo de IA. Por ahora, numerosos hiperescaladores chinos prefieren usar las GPU de Nvidia para sus productos de IA debido a la superioridad de CUDA y la cantidad de dinero que ya han invertido en este ecosistema.