Ahora puedes entrenar ChatGPT en tus propios documentos a través de API


imágenes falsas

El martes, OpenAI anunció ajustes para GPT-3.5 Turbo, el modelo de IA que impulsa la versión gratuita de ChatGPT, a través de su API. Permite entrenar el modelo con datos personalizados, como documentos de la empresa o documentación del proyecto. OpenAI afirma que un modelo ajustado puede funcionar tan bien como GPT-4 con un costo menor en ciertos escenarios.

En IA, el ajuste fino se refiere al proceso de tomar una red neuronal previamente entrenada (como GPT-3.5 Turbo) y entrenarla aún más en un conjunto de datos diferente (como sus datos personalizados), que generalmente es más pequeño y posiblemente esté relacionado con una tarea específica. Este proceso se basa en el conocimiento que el modelo adquirió durante su fase de capacitación inicial y lo perfecciona para una aplicación específica.

Básicamente, el ajuste fino le enseña a GPT-3.5 Turbo sobre contenido personalizado, como documentación del proyecto o cualquier otra referencia escrita. Esto puede resultar útil si desea crear un asistente de IA basado en GPT-3.5 que esté íntimamente familiarizado con su producto o servicio pero que carezca de conocimiento sobre él en sus datos de entrenamiento (que, como recordatorio, fueron eliminados de la web antes de septiembre). 2021).

«Desde el lanzamiento de GPT-3.5 Turbo, los desarrolladores y las empresas han solicitado la posibilidad de personalizar el modelo para crear experiencias únicas y diferenciadas para sus usuarios», escribe OpenAI en su blog promocional. «Con este lanzamiento, los desarrolladores ahora pueden ejecutar ajustes supervisados ​​para que este modelo funcione mejor en sus casos de uso».

Si bien GPT-4, el primo más poderoso de GPT-3.5, es bien conocido como un generalista que se adapta a muchos temas, es más lento y más costoso de ejecutar. OpenAI está lanzando el ajuste 3.5 como una forma de obtener un rendimiento similar al GPT-4 en un dominio de conocimiento específico a un costo menor y un tiempo de ejecución más rápido. «Las primeras pruebas han demostrado que una versión mejorada de GPT-3.5 Turbo puede igualar, o incluso superar, las capacidades básicas de nivel GPT-4 en ciertas tareas específicas», escriben.

Además, OpenAI dice que los modelos ajustados proporcionan «mejor direccionabilidad», lo que significa seguir mejor las instrucciones; «formato de salida confiable», que mejora la capacidad del modelo para generar texto de manera consistente en un formato como llamadas API o JSON; y «tono personalizado», que puede incorporar un sabor o personalidad personalizados a un chatbot.

OpenAI dice que el ajuste permite a los usuarios acortar sus mensajes y puede ahorrar dinero en las llamadas a la API de OpenAI, que se facturan por token. «Los primeros evaluadores han reducido el tamaño del mensaje hasta en un 90% ajustando las instrucciones en el modelo mismo», dice OpenAI. En este momento, la longitud del contexto para el ajuste está establecida en 4.000 tokens, pero OpenAI dice que el ajuste se extenderá al modelo de 16.000 tokens «más adelante este otoño».

Usar tus propios datos tiene un costo

A estas alturas, quizás se pregunte cómo funciona el uso de sus propios datos para entrenar GPT-3.5 y cuánto cuesta. OpenAI presenta un proceso simplificado en su blog que muestra la configuración de un indicador del sistema con la API, la carga de archivos a OpenAI para capacitación y la creación de un trabajo de ajuste utilizando la herramienta de línea de comandos curl para consultar una dirección web de API. Una vez que se completa el proceso de ajuste, OpenAI dice que el modelo personalizado está disponible para su uso inmediatamente con los mismos límites de velocidad que el modelo base. Se pueden encontrar más detalles en la documentación oficial de OpenAI.

Todo esto tiene un precio, por supuesto, y se divide en costos de capacitación y costos de uso. Entrenar GPT-3.5 cuesta $0,008 por cada 1000 tokens. Durante la fase de uso, el acceso a la API cuesta $0,012 por cada 1000 tokens para la entrada de texto y $0,016 por cada 1000 tokens para la salida de texto.

En comparación, el modelo base 4k GPT-3.5 Turbo cuesta $0,0015 por cada 1000 tokens de entrada y $0,002 por cada 1000 tokens de salida, por lo que el modelo ajustado es aproximadamente ocho veces más caro de ejecutar. Y aunque el modelo de contexto 8K de GPT-4 también es más barato: $0,03 por cada 1000 tokens de entrada y $0,06 por cada 1000 tokens de salida, OpenAI todavía afirma que se puede ahorrar dinero debido a la menor necesidad de avisos en el modelo ajustado. Es una exageración, pero en casos concretos, puede aplicarse.

Incluso a un costo, enseñar GPT-3.5 sobre documentos personalizados puede valer la pena para algunas personas, si puede evitar que el modelo invente cosas al respecto. Personalizar es una cosa, pero confiar en la precisión y confiabilidad de las salidas GPT-3.5 Turbo en un entorno de producción es otra cuestión completamente distinta. GPT-3.5 es conocido por su tendencia a confabular información.

Con respecto a la privacidad de los datos, OpenAI señala que, como ocurre con todas sus API, OpenAI (ni nadie más) utiliza los datos enviados dentro y fuera de la API de ajuste para entrenar modelos de IA. Curiosamente, OpenAI enviará todos los datos de entrenamiento de ajuste fino del cliente a través de GPT-4 con fines de moderación utilizando su API de moderación recientemente anunciada. Eso puede representar parte del costo de utilizar el servicio de ajuste.

Y si 3.5 no es lo suficientemente bueno para usted, OpenAI dice que el ajuste fino para GPT-4 llegará este otoño. Según nuestra experiencia, ese GPT-4 no compensa tanto las cosas, pero ajustar ese modelo (o los 8 modelos que se rumorea que trabajan juntos bajo el capó) probablemente será mucho más costoso.



Source link-49