Amazon Web Services (AWS) ha anunciado una nueva asociación con los expertos en IA Hugging Face para ayudar a crear el entorno de desarrollo definitivo.
La asociación no exclusiva está diseñada para facilitar la realización de cargas de trabajo de IA mediante AWS, el mayor sistema de computación en la nube y alojamiento en la nube proveedor.
A diferencia de Google, Microsoft y OpenAI, que centran su atención en los chatbots de cara al público, AWS espera trabajar entre bastidores para proporcionar las herramientas fundamentales necesarias para crear este tipo de tecnología.
AWS, Hugging Face e IA
El CEO de Hugging Face, Clem Delangue, dijo Reuters (se abre en una pestaña nueva) que la próxima generación del modelo de IA de código abierto Bloom se ejecutará en Trainium, un chip de IA creado por AWS.
Los chips como Trainium están diseñados para ser más eficientes, ya que están orientados a cargas de trabajo de IA, lo que debería ayudar a los desarrolladores a ahorrar tiempo y dinero. A su vez, AWS espera poder abrir la carga de trabajo de IA a más desarrolladores.
“Crear, entrenar e implementar modelos de visión y lenguaje de gran tamaño es un proceso costoso y lento que requiere una gran experiencia en aprendizaje automático (ML)”, dijo un comunicado de AWS. “Dado que los modelos son muy complejos y pueden contener cientos de miles de millones de parámetros, la IA generativa está fuera del alcance de muchos desarrolladores”.
Más allá de esto, AWS tiene una extensa historia de inteligencia artificial, en gran parte centrada en su asistente de voz Alexa, pero que también incluye el gran modelo de IA que ha sido diseñado para hacer que la búsqueda en Amazon sea más efectiva. La compañía espera traer esta experiencia a la mesa en su nueva asociación.
Aún está por verse si otras compañías como Google y Microsoft deberían preocuparse por esta asociación, sin embargo, está claro que Big Tech se está preparando para un año centrado en la IA.