Nvidia adquiere la startup de gestión de cargas de trabajo de IA Run:ai por 700 millones de dólares, dicen las fuentes


Nvidia está adquiriendo Run:ai, una empresa con sede en Tel Aviv que facilita a los desarrolladores y equipos de operaciones la gestión y optimización de su infraestructura de hardware de IA. Los términos del acuerdo no se revelan públicamente, pero dos fuentes cercanas al asunto le dicen a TechCrunch que el precio era de 700 millones de dólares.

CTech informó esta mañana que las empresas estaban en «negociaciones avanzadas» que podrían hacer que Nvidia pagara más de mil millones de dólares por Run:ai. Evidentemente, las negociaciones transcurrieron sin contratiempos, salvo un posible cambio de precios.

Nvidia dice que continuará ofreciendo los productos de Run:ai «bajo el mismo modelo de negocio» e invertirá en la hoja de ruta de productos de Run:ai como parte de la plataforma DGX Cloud AI de Nvidia, que brinda a los clientes empresariales acceso a infraestructura informática y software que pueden Se utiliza para entrenar modelos para formas generativas y de otro tipo de IA. Los clientes de servidores y estaciones de trabajo Nvidia DGX y DGX Cloud también obtendrán acceso a las capacidades de Run:ai para sus cargas de trabajo de IA, dice Nvidia, particularmente para implementaciones de IA generativa que se ejecutan en múltiples ubicaciones de centros de datos.

«Run:ai ha sido un colaborador cercano de Nvidia desde 2020 y compartimos la pasión por ayudar a nuestros clientes a aprovechar al máximo su infraestructura», dijo Omri Geller, director ejecutivo de Run:ai, en un comunicado. «Estamos encantados de unirnos a Nvidia y esperamos continuar nuestro viaje juntos».

Geller cofundó Run:ai con Ronen Dar hace varios años después de que los dos estudiaran juntos en la Universidad de Tel Aviv con el profesor Meir Feder, el tercer cofundador de Run:ai. Geller, Dar y Feder buscaron construir una plataforma que pudiera «dividir» los modelos de IA en fragmentos que se ejecutan en paralelo en el hardware, ya sea en las instalaciones, en nubes públicas o en el borde.

Si bien Run:ai tiene pocos competidores directos, otras empresas están aplicando el concepto de asignación dinámica de hardware a las cargas de trabajo de IA. Por ejemplo, Grid.ai ofrece software que permite a los científicos de datos entrenar modelos de IA en GPU, procesadores y más en paralelo.

Pero relativamente temprano en su vida, Run:ai logró establecer una gran base de clientes de empresas Fortune 500, lo que a su vez atrajo inversiones de capital de riesgo. Antes de la adquisición, Run:ai había recaudado 118 millones de dólares en capital de patrocinadores como Insight Partners, Tiger Global, S Capital y TLV Partners.

En la publicación del blog, Alexis Bjorlin, vicepresidente de DGX Cloud de Nvidia, señaló que las implementaciones de IA de los clientes se están volviendo cada vez más complejas y que existe un deseo creciente entre las empresas de hacer un uso más eficiente de sus fuentes informáticas de IA.

Una encuesta reciente de organizaciones que adoptan IA de ClearML, la empresa de gestión de modelos de aprendizaje automático, encontró que el mayor desafío en la ampliación de la IA para 2024 hasta ahora han sido las limitaciones informáticas en términos de disponibilidad y costo, seguidas de problemas de infraestructura.

«La gestión y orquestación de la IA generativa, los sistemas de recomendación, los motores de búsqueda y otras cargas de trabajo requiere una programación sofisticada para optimizar el rendimiento a nivel del sistema y en la infraestructura subyacente», dijo Bjorlin. “La plataforma informática acelerada de Nvidia y la plataforma Run:ai seguirán soportando un amplio ecosistema de soluciones de terceros, ofreciendo a los clientes opciones y flexibilidad. Junto con Run:ai, Nvidia permitirá a los clientes tener un tejido único que acceda a las soluciones de GPU en cualquier lugar”.

Run:ai se encuentra entre las mayores adquisiciones de Nvidia desde la compra de Mellanox por 6.900 millones de dólares en marzo de 2019.



Source link-48