Desde que se lanzó ChatGPT en noviembre de 2022, las personas y las empresas lo han estado utilizando para resumir texto, crear contenido nuevo, pensar en nuevas ideas e incluso escribir código.
A medida que el servicio comenzó a acumular millones de usuarios mensuales activos, comenzaron a circular rumores sobre la participación de Microsoft en la empresa detrás de ChatGPT, OpenAI. Desde entonces, se informa que Microsoft ha invertido miles de millones en la empresa y la inteligencia artificial se ha abierto camino en numerosos productos y servicios.
Esta asociación ahora ha dado un importante paso adelante, ya que Microsoft integrará ChatGPT directamente en su servicio Azure OpenAI, extendiendo su alcance a millones de clientes a través de la gran cantidad de empresas que usan Azure.
ChatGPT en Azure
Es importante tener en cuenta que ChatGPT se encuentra actualmente en versión preliminar en Azure OpenAI Service, y la disponibilidad general completa puede demorar un tiempo aún con futuros ajustes a los servicios y precios tanto posibles como probables. Por ahora, sin embargo, tiene un precio de $0.002 por cada 1000 tokens.
Microsoft espera que sus clientes de Azure utilicen el chatbot de IA para integrarse en sus propias experiencias y aplicaciones, como mejorar los bots existentes, resumir llamadas y reuniones, crear nuevo material de marketing y automatizar procesos de reclamos.
Para cualquiera que aún no esté seguro de cómo la IA puede beneficiar su negocio, Microsoft cita a algunos terceros en un entrada en el blog (se abre en una pestaña nueva) que han experimentado mejoras, así como algunos de sus propios servicios, incluido GitHub Copilot, Equipos PremiumViva Sales y Bing.
En general, la esperanza de Microsoft con Azure OpenAI Service es democratizar la inteligencia artificial y ponerla en manos de tantos clientes como sea posible, sin embargo, algunos argumentan que la implementación global ha sido demasiado lenta con demasiado énfasis en ciertas partes del mundo. probablemente debido a lo difícil que es ofrecer IA de baja latencia a gran escala.