Enfabrica, que fabrica hardware de red para impulsar cargas de trabajo de IA, recauda 125 millones de dólares


Enfabrica, una empresa que fabrica chips de red diseñados para manejar cargas de trabajo de inteligencia artificial y aprendizaje automático, anunció hoy que recaudó 125 millones de dólares en una ronda de financiación Serie B que valora a la empresa en «cinco veces» su valoración posterior al dinero de la Serie A, según co- fundador y director ejecutivo Rochan Sankar.

Dirigido por Atreides Management con la participación de Sutter Hill Ventures, Nvidia, IAG Capital Partners, Liberty Global Ventures, Valor Equity Partners, Infinitum Partners y Alumni Ventures, el nuevo tramo eleva el total recaudado de Enfabrica a 148 millones de dólares. Sankar dice que se destinará a respaldar las operaciones y la investigación y el desarrollo de Enfabrica, así como a ampliar sus equipos de ingeniería, ventas y marketing.

“Es notable que Enfabrica haya levantado una ronda de esta magnitud en un entorno de financiación altamente desafiante para las nuevas empresas de chips (y para la tecnología profunda financiada por capital de riesgo en general) y, al hacerlo, se ha diferenciado de muchas de sus pares de nuevas empresas de chips en la industria. ”, dijo Sankar. «A medida que la IA generativa y los grandes modelos de lenguaje continúan impulsando el mayor impulso de infraestructura en computación en la nube en una multitud de industrias, soluciones como la de Enfabrica tienen el potencial de abordar una demanda muy alta de tecnologías de redes».

Es posible que Enfabrica haya surgido del sigilo en 2023, pero comenzó su viaje en 2020. Sankar, ex director de ingeniería de Broadcom, se asoció con Shrijeet Mukherjee, quien anteriormente dirigió plataformas y arquitectura de redes en Google, para construir una startup: Enfabrica, para satisfacer lo que observaron como un crecimiento en el apetito de la industria de la IA por una infraestructura «paralela, acelerada y heterogénea», en otras palabras, GPU.

«Razonamos que el silicio y los sistemas de red debían seguir un cambio de paradigma similar para permitir este tipo de infraestructura informática a escala masiva», dijo Sankar. «El mayor desafío que plantea la actual revolución de la IA es la ampliación de la infraestructura de la IA, tanto en términos de coste de la computación como de sostenibilidad de la misma».

Con Sankar como director ejecutivo y Mukherjee como director de desarrollo, junto con algunos ingenieros fundadores provenientes de compañías como Cisco, Meta e Intel, Enfabrica comenzó a desarrollar una arquitectura para chips de red que pudiera cumplir con los requisitos de E/S y “movimiento de memoria” de cargas de trabajo paralelas, incluida la IA.

Sankar afirma que los chips de red convencionales, como los conmutadores, tienen dificultades para satisfacer las necesidades de movimiento de datos de las cargas de trabajo modernas de IA. Algunos de los modelos de IA que se entrenan hoy en día, como Llama 2 y GPT-4 de Meta, ingieren conjuntos de datos masivos durante el proceso de entrenamiento, y los conmutadores de red pueden terminar siendo un cuello de botella, dice Sankar.

«Una parte importante del problema de escalamiento y el cuello de botella para la industria de la IA radica en los subsistemas de E/S, el movimiento de la memoria y las redes conectadas al cómputo de la GPU», dijo. «Existe una enorme necesidad de vincular la creciente demanda de cargas de trabajo de IA con el costo general, la eficiencia, la sostenibilidad y la facilidad de escalar los clústeres de computación en los que se ejecutan».

En su búsqueda por desarrollar hardware de red superior, Enfabrica se centró en la paralelización.

El hardware de Enfabrica, al que llama Accelerated Compute Fabric Switch, o ACF-S para abreviar, puede ofrecer un movimiento de datos de hasta «multiterabits por segundo» entre GPU, CPU y chips aceleradores de IA, además de dispositivos de memoria y redes. Al emplear interfaces «basadas en estándares», el hardware puede escalar a decenas de miles de nodos y reducir el cálculo de GPU para un modelo de lenguaje grande (en la línea de Llama 2) en aproximadamente un 50% en el mismo punto de rendimiento, afirma Enfabric.

«Los dispositivos ACF-S de Enfabrica complementan las GPU, CPU y aceleradores al proporcionar redes, E/S y memoria eficientes y de alto rendimiento conectadas dentro de un rack de servidores de un centro de datos», explicó Sankar. «Con ese fin, el ACF-S es una solución convergente que elimina la necesidad de chips de red y E/S de servidor tradicionales y dispares, como conmutadores de red a nivel de rack, controladores de interfaz de red de servidor y conmutadores PCIe».

Una representación del hardware de red ACF-S de Enfabrica. Créditos de imagen: enfabrica

Sankar también argumentó que los dispositivos ACF-S pueden beneficiar a las empresas que manejan inferencias, es decir, que ejecutan modelos de IA entrenados, al permitirles utilizar la menor cantidad posible de GPU, CPU y otros aceleradores de IA. Esto se debe a que, según Sankar, ACF-S puede hacer un uso más eficiente del hardware existente al mover grandes cantidades de datos muy rápidamente.

“El ACF-S es independiente del tipo y la marca de procesador de IA utilizado para el cálculo de IA, así como de los modelos exactos implementados, lo que permite que la infraestructura de IA se construya en muchos casos de uso diferentes y admita múltiples proveedores de procesadores sin bloqueo de propiedad. -adentro”, añadió.

Enfabrica podría estar bien financiada. Pero vale la pena señalar que no es la única startup de chips de red que sigue la tendencia de la IA.

Este verano, Cisco anunció una gama de hardware (Silicon One G200 y G202) para soportar cargas de trabajo de redes de IA. Por su parte, tanto Broadcom como Marvell (empresas establecidas en el espacio de redes empresariales) ofrecen conmutadores que pueden ofrecer hasta 51,2 terabits por segundo de ancho de banda; Broadcom lanzó recientemente el tejido de alto rendimiento Jericho3-AI, que puede conectarse hasta 32.000 GPU.

Sankar no estaba dispuesto a hablar sobre los clientes de Enfabrica, ya que es relativamente temprano; parte del último tramo de financiación respaldará la producción de Enfabrica y sus esfuerzos de comercialización, afirma. Aún así, Sankar afirma que Enfabrica se encuentra en una posición de fortaleza dada la atención (y las enormes inversiones que se están realizando) en la infraestructura de IA.

Según el Grupo Dell’Oro, las inversiones en infraestructura de IA aumentarán los gastos de capital de los centros de datos a más de 500 mil millones de dólares para 2027. Mientras tanto, se espera que la inversión en hardware adaptado a la IA en términos generales experimente una tasa de crecimiento anual compuesta del 20,5% durante el próximo año. cinco años, según IDC.

«El costo actual y la huella de energía de la computación de IA, ya sea local o en la nube, es (o si no, debería ser) una prioridad máxima para cada CIO, ejecutivo de C-Suite y organización de TI que implementa servicios de IA». él dijo. “A pesar de los obstáculos económicos que han afectado al mundo de las startups tecnológicas desde finales de 2022, Enfabrica ha avanzado en su financiación, progreso de productos y potencial de mercado en virtud de una tecnología sustancialmente innovadora y disruptiva para las soluciones de chips de E/S de servidores y redes existentes. [and] la magnitud de la oportunidad de mercado y el cambio de paradigma tecnológico que la IA generativa y la computación acelerada han dado lugar en los últimos 18 meses”.

Enfabrica, con sede en Mountain View, tiene poco más de 100 empleados en Norteamérica, Europa e India.



Source link-48