{"id":492705,"date":"2023-03-02T22:25:59","date_gmt":"2023-03-02T22:25:59","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-lanza-una-api-para-chatgpt-ademas-de-capacidad-dedicada-para-clientes-empresariales\/"},"modified":"2023-03-02T22:26:00","modified_gmt":"2023-03-02T22:26:00","slug":"openai-lanza-una-api-para-chatgpt-ademas-de-capacidad-dedicada-para-clientes-empresariales","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-lanza-una-api-para-chatgpt-ademas-de-capacidad-dedicada-para-clientes-empresariales\/","title":{"rendered":"OpenAI lanza una API para ChatGPT, adem\u00e1s de capacidad dedicada para clientes empresariales"},"content":{"rendered":"


\n<\/p>\n

\n

Llamar a ChatGPT, la IA gratuita de generaci\u00f3n de texto desarrollada por la startup OpenAI con sede en San Francisco, un \u00e9xito es quedarse corto.<\/p>\n

A partir de diciembre, ChatGPT ten\u00eda un estimado de m\u00e1s de 100 millones de usuarios activos mensuales. Atrajo la atenci\u00f3n de los principales medios y gener\u00f3 innumerables memes en las redes sociales. Se ha utilizado para escribir cientos de libros electr\u00f3nicos en la tienda Kindle de Amazon. Y se le atribuye la coautor\u00eda de al menos un art\u00edculo cient\u00edfico.<\/p>\n

Pero OpenAI, al ser un negocio, aunque con ganancias limitadas, ten\u00eda que monetizar ChatGPT de alguna manera, para que los inversores no se pusieran nerviosos. Dio un paso hacia esto con el lanzamiento de un servicio premium, ChatGPT Plus, en febrero. Y hoy hizo un movimiento m\u00e1s grande, al presentar una API que permitir\u00e1 a cualquier empresa incorporar la tecnolog\u00eda ChatGPT en sus aplicaciones, sitios web, productos y servicios.<\/p>\n

Una API siempre fue el plan. Eso es seg\u00fan Greg Brockman, presidente y presidente de OpenAI (y tambi\u00e9n uno de los cofundadores). Habl\u00f3 conmigo ayer por la tarde a trav\u00e9s de una videollamada antes del lanzamiento de la API de ChatGPT.<\/p>\n

\u201cNos toma un tiempo lograr que estas API alcancen cierto nivel de calidad\u201d, dijo Brockman. \u201cCreo que es algo as\u00ed como simplemente poder satisfacer la demanda y la escala\u201d.<\/p>\n

Brockman dice que la API de ChatGPT funciona con el mismo modelo de IA detr\u00e1s del popular ChatGPT de OpenAI, denominado \u00abgpt-3.5-turbo\u00bb. GPT-3.5 es el modelo de generaci\u00f3n de texto m\u00e1s poderoso que OpenAI ofrece hoy a trav\u00e9s de su conjunto de API; el apodo \u00abturbo\u00bb se refiere a una versi\u00f3n optimizada y con mayor capacidad de respuesta de GPT-3.5 que OpenAI ha estado probando silenciosamente para ChatGPT.<\/p>\n

Con un precio de $0.002 por 1000 tokens, o alrededor de 750 palabras, Brockman afirma que la API puede impulsar una variedad de experiencias, incluidas las aplicaciones \u00abno de chat\u00bb. Snap, Quizlet, Instacart y Shopify se encuentran entre los primeros en adoptar.<\/p>\n

La motivaci\u00f3n inicial detr\u00e1s del desarrollo de gpt-3.5-turbo podr\u00eda haber sido reducir los gigantescos costos inform\u00e1ticos de ChatGPT. El director general de OpenAI, Sam Altman, calific\u00f3 una vez los gastos de ChatGPT como \u00abalucinantes\u00bb, calcul\u00e1ndolos en unos pocos centavos por chat en costos de c\u00f3mputo. (Con m\u00e1s de un mill\u00f3n de usuarios, presumiblemente eso se acumula r\u00e1pidamente).<\/p>\n

Pero Brockman dice que gpt-3.5-turbo se mejora de otras formas.<\/p>\n

\u201cSi est\u00e1 creando un tutor impulsado por IA, nunca querr\u00e1 que el tutor solo le d\u00e9 una respuesta al estudiante. Desea que siempre lo explique y les ayude a aprender: ese es un ejemplo del tipo de sistema que deber\u00eda poder construir [with the API]\u201d, dijo Brockman. \u201cCreemos que esto ser\u00e1 algo que simplemente har\u00e1 que la API sea mucho m\u00e1s \u00fatil y accesible\u201d.<\/p>\n

La API de ChatGPT es la base de My AI, el chatbot recientemente anunciado por Snap para los suscriptores de Snapchat+ y la nueva funci\u00f3n de tutor virtual Q-Chat de Quizlet. Shopify us\u00f3 la API de ChatGPT para crear un asistente personalizado para recomendaciones de compras, mientras que Instacart la aprovech\u00f3 para crear Ask Instacart, una pr\u00f3xima herramienta que permitir\u00e1 a los clientes de Instacart preguntar sobre alimentos y obtener respuestas \u00abcomprables\u00bb informadas por datos de productos de la tienda minorista de la empresa. socios.<\/p>\n

\u00abComprar comestibles puede requerir una gran carga mental, con muchos factores en juego, como el presupuesto, la salud y la nutrici\u00f3n, los gustos personales, la estacionalidad, las habilidades culinarias, el tiempo de preparaci\u00f3n y la inspiraci\u00f3n de recetas\u00bb, me dijo el arquitecto jefe de Instacart, JJ Zhuang, por correo electr\u00f3nico. . \u201c\u00bfQu\u00e9 pasar\u00eda si la IA pudiera asumir esa carga mental y pudi\u00e9ramos ayudar a los l\u00edderes del hogar que son com\u00fanmente responsables de las compras de comestibles, la planificaci\u00f3n de comidas y poner comida en la mesa, y en realidad hacer que las compras de comestibles sean realmente divertidas? El sistema de inteligencia artificial de Instacart, cuando se integre con ChatGPT de OpenAI, nos permitir\u00e1 hacer exactamente eso, y estamos encantados de comenzar a experimentar con lo que es posible en la aplicaci\u00f3n Instacart\u201d.<\/p>\n

\n

Cr\u00e9ditos de imagen:<\/strong> Instacart<\/p>\n<\/div>\n

Sin embargo, aquellos que han estado siguiendo de cerca la saga ChatGPT, podr\u00edan preguntarse si est\u00e1 listo para su lanzamiento, y con raz\u00f3n.<\/p>\n

Al principio, los usuarios pod\u00edan incitar a ChatGPT a responder preguntas de manera racista y sexista, un reflejo de los datos sesgados en los que ChatGPT se entren\u00f3 inicialmente. (Los datos de entrenamiento de ChatGPT incluyen una amplia franja de contenido de Internet, a saber, libros electr\u00f3nicos, publicaciones de Reddit y art\u00edculos de Wikipedia). ChatGPT tambi\u00e9n inventa hechos sin revelar que lo est\u00e1 haciendo, un fen\u00f3meno en IA conocido como alucinaci\u00f3n.<\/p>\n

ChatGPT, y sistemas similares, tambi\u00e9n son susceptibles a ataques basados \u200b\u200ben avisos, o avisos adversarios maliciosos que les obligan a realizar tareas que no formaban parte de sus objetivos originales. Comunidades enteras en Reddit se han formado en torno a encontrar formas de \u00abjailbreak\u00bb ChatGPT y eludir cualquier protecci\u00f3n que haya implementado OpenAI. En uno de los ejemplos menos ofensivos, un miembro del personal de la startup Scale AI pudo hacer que ChatGPT divulgar<\/a> informaci\u00f3n sobre su funcionamiento t\u00e9cnico interno.<\/p>\n

Las marcas, sin duda, no querr\u00edan quedar atrapadas en el punto de mira. Brockman est\u00e1 convencido de que no lo ser\u00e1n. \u00bfPorque? Una de las razones, dice, son las continuas mejoras en el back-end, en algunos casos a expensas de los trabajadores contratados de Kenia. Pero Brockman enfatiz\u00f3 un enfoque nuevo (y decididamente menos controvertido) que OpenAI llama Chat Markup Language o ChatML. ChatML env\u00eda texto a la API de ChatGPT como una secuencia de mensajes junto con metadatos. Eso es lo opuesto al ChatGPT est\u00e1ndar, que consume texto sin procesar representado como una serie de tokens. (La palabra \u00abfant\u00e1stico\u00bb se dividir\u00eda en las fichas \u00abfan\u00bb, \u00abtas\u00bb y \u00abtic\u00bb, por ejemplo).<\/p>\n

Por ejemplo, ante la pregunta \u00ab\u00bfCu\u00e1les son algunas ideas interesantes para una fiesta para mi 30 cumplea\u00f1os?\u00bb un desarrollador puede optar por agregar ese mensaje con un mensaje adicional como \u201cEres un chatbot conversacional divertido dise\u00f1ado para ayudar a los usuarios con las preguntas que hacen. \u00a1Debes responder con sinceridad y de una manera divertida!\u201d o \u00abEres un bot\u00bb antes de que la API de ChatGPT lo procese. Estas instrucciones ayudan a adaptar y filtrar mejor las respuestas del modelo ChatGPT, seg\u00fan Brockman.<\/p>\n

\u201cNos estamos moviendo a una API de nivel superior. Si tiene una forma m\u00e1s estructurada de representar la entrada al sistema, donde dice, ‘esto es del desarrollador’ o ‘esto es del usuario’… Debo esperar que, como desarrollador, en realidad pueda ser m\u00e1s s\u00f3lido. [using ChatML] contra este tipo de ataques r\u00e1pidos\u201d, dijo Brockman.<\/p>\n

Otro cambio que (con suerte) evitar\u00e1 el comportamiento no deseado de ChatGPT son las actualizaciones de modelos m\u00e1s frecuentes. Con el lanzamiento de gpt-3.5-turbo, los desarrolladores se actualizar\u00e1n autom\u00e1ticamente de forma predeterminada al \u00faltimo modelo estable de OpenAI, dice Brockman, comenzando con gpt-3.5-turbo-0301 (lanzado hoy). Sin embargo, los desarrolladores tendr\u00e1n la opci\u00f3n de quedarse con un modelo m\u00e1s antiguo si as\u00ed lo desean, lo que podr\u00eda anular un poco el beneficio.<\/p>\n

Ya sea que opten por actualizar al modelo m\u00e1s nuevo o no, Brockman se\u00f1ala que algunos clientes, principalmente grandes empresas con presupuestos correspondientemente grandes, tendr\u00e1n un control m\u00e1s profundo sobre el rendimiento del sistema con la introducci\u00f3n de planes de capacidad dedicados. Detallados por primera vez en la documentaci\u00f3n filtrada a principios de este mes, los planes de capacidad dedicados de OpenAI, lanzados hoy, permiten a los clientes pagar por una asignaci\u00f3n de infraestructura inform\u00e1tica para ejecutar un modelo de OpenAI, por ejemplo, gpt-3.5-turbo. (Es Azure en el back-end, por cierto).<\/p>\n

Adem\u00e1s del \u00abcontrol total\u00bb sobre la carga de la instancia (normalmente, las llamadas a la API de OpenAI se realizan en recursos inform\u00e1ticos compartidos), la capacidad dedicada brinda a los clientes la capacidad de habilitar funciones como l\u00edmites de contexto m\u00e1s largos. Los l\u00edmites de contexto se refieren al texto que el modelo considera antes de generar texto adicional; los l\u00edmites de contexto m\u00e1s largos permiten que el modelo \u00abrecuerde\u00bb m\u00e1s texto esencialmente. Si bien los l\u00edmites de contexto m\u00e1s altos podr\u00edan no resolver todos los problemas de sesgo y toxicidad, podr\u00edan hacer que modelos como gpt-3.5-turbo alucinen menos.<\/p>\n

Brockman dice que los clientes de capacidad dedicada pueden esperar modelos gpt-3.5-turbo con una ventana de contexto de hasta 16k, lo que significa que pueden aceptar cuatro veces m\u00e1s tokens que el modelo ChatGPT est\u00e1ndar. Eso podr\u00eda permitir que alguien pegue p\u00e1ginas y p\u00e1ginas del c\u00f3digo fiscal y obtenga respuestas razonables del modelo, digamos, una haza\u00f1a que no es posible hoy en d\u00eda.<\/p>\n

Brockman aludi\u00f3 a un lanzamiento general en el futuro, pero no en el corto plazo.<\/p>\n

\u201cLas ventanas de contexto est\u00e1n comenzando a aumentar, y parte de la raz\u00f3n por la que ahora solo somos clientes de capacidad dedicada es porque hay muchas compensaciones de rendimiento de nuestro lado\u201d, dijo Brockman. \u201cEventualmente podr\u00edamos ofrecer una versi\u00f3n bajo demanda de lo mismo\u201d.<\/p>\n

Dada la creciente presi\u00f3n de OpenAI para obtener ganancias despu\u00e9s de una inversi\u00f3n multimillonaria de Microsoft, eso no ser\u00eda terriblemente sorprendente.<\/p>\n<\/p><\/div>\n