\n<\/aside>\n<\/p>\n
El martes, OpenAI anunci\u00f3 ajustes para GPT-3.5 Turbo, el modelo de IA que impulsa la versi\u00f3n gratuita de ChatGPT, a trav\u00e9s de su API. Permite entrenar el modelo con datos personalizados, como documentos de la empresa o documentaci\u00f3n del proyecto. OpenAI afirma que un modelo ajustado puede funcionar tan bien como GPT-4 con un costo menor en ciertos escenarios.<\/p>\n
En IA, el ajuste fino se refiere al proceso de tomar una red neuronal previamente entrenada (como GPT-3.5 Turbo) y entrenarla a\u00fan m\u00e1s en un conjunto de datos diferente (como sus datos personalizados), que generalmente es m\u00e1s peque\u00f1o y posiblemente est\u00e9 relacionado con una tarea espec\u00edfica. Este proceso se basa en el conocimiento que el modelo adquiri\u00f3 durante su fase de capacitaci\u00f3n inicial y lo perfecciona para una aplicaci\u00f3n espec\u00edfica.<\/p>\n
B\u00e1sicamente, el ajuste fino le ense\u00f1a a GPT-3.5 Turbo sobre contenido personalizado, como documentaci\u00f3n del proyecto o cualquier otra referencia escrita. Esto puede resultar \u00fatil si desea crear un asistente de IA basado en GPT-3.5 que est\u00e9 \u00edntimamente familiarizado con su producto o servicio pero que carezca de conocimiento sobre \u00e9l en sus datos de entrenamiento (que, como recordatorio, fueron eliminados de la web antes de septiembre). 2021).<\/p>\n
\u00abDesde el lanzamiento de GPT-3.5 Turbo, los desarrolladores y las empresas han solicitado la posibilidad de personalizar el modelo para crear experiencias \u00fanicas y diferenciadas para sus usuarios\u00bb, escribe OpenAI en su blog promocional. \u00abCon este lanzamiento, los desarrolladores ahora pueden ejecutar ajustes supervisados \u200b\u200bpara que este modelo funcione mejor en sus casos de uso\u00bb.<\/p>\n
Si bien GPT-4, el primo m\u00e1s poderoso de GPT-3.5, es bien conocido como un generalista que se adapta a muchos temas, es m\u00e1s lento y m\u00e1s costoso de ejecutar. OpenAI est\u00e1 lanzando el ajuste 3.5 como una forma de obtener un rendimiento similar al GPT-4 en un dominio de conocimiento espec\u00edfico a un costo menor y un tiempo de ejecuci\u00f3n m\u00e1s r\u00e1pido. \u00abLas primeras pruebas han demostrado que una versi\u00f3n mejorada de GPT-3.5 Turbo puede igualar, o incluso superar, las capacidades b\u00e1sicas de nivel GPT-4 en ciertas tareas espec\u00edficas\u00bb, escriben.<\/p>\n
Adem\u00e1s, OpenAI dice que los modelos ajustados proporcionan \u00abmejor direccionabilidad\u00bb, lo que significa seguir mejor las instrucciones; \u00abformato de salida confiable\u00bb, que mejora la capacidad del modelo para generar texto de manera consistente en un formato como llamadas API o JSON; y \u00abtono personalizado\u00bb, que puede incorporar un sabor o personalidad personalizados a un chatbot.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nOpenAI dice que el ajuste permite a los usuarios acortar sus mensajes y puede ahorrar dinero en las llamadas a la API de OpenAI, que se facturan por token. \u00abLos primeros evaluadores han reducido el tama\u00f1o del mensaje hasta en un 90% ajustando las instrucciones en el modelo mismo\u00bb, dice OpenAI. En este momento, la longitud del contexto para el ajuste est\u00e1 establecida en 4.000 tokens, pero OpenAI dice que el ajuste se extender\u00e1 al modelo de 16.000 tokens \u00abm\u00e1s adelante este oto\u00f1o\u00bb.<\/p>\n
Usar tus propios datos tiene un costo<\/h2>\n A estas alturas, quiz\u00e1s se pregunte c\u00f3mo funciona el uso de sus propios datos para entrenar GPT-3.5 y cu\u00e1nto cuesta. OpenAI presenta un proceso simplificado en su blog que muestra la configuraci\u00f3n de un indicador del sistema con la API, la carga de archivos a OpenAI para capacitaci\u00f3n y la creaci\u00f3n de un trabajo de ajuste utilizando la herramienta de l\u00ednea de comandos curl para consultar una direcci\u00f3n web de API. Una vez que se completa el proceso de ajuste, OpenAI dice que el modelo personalizado est\u00e1 disponible para su uso inmediatamente con los mismos l\u00edmites de velocidad que el modelo base. Se pueden encontrar m\u00e1s detalles en la documentaci\u00f3n oficial de OpenAI.<\/p>\n
Todo esto tiene un precio, por supuesto, y se divide en costos de capacitaci\u00f3n y costos de uso. Entrenar GPT-3.5 cuesta $0,008 por cada 1000 tokens. Durante la fase de uso, el acceso a la API cuesta $0,012 por cada 1000 tokens para la entrada de texto y $0,016 por cada 1000 tokens para la salida de texto.<\/p>\n
En comparaci\u00f3n, el modelo base 4k GPT-3.5 Turbo cuesta $0,0015 por cada 1000 tokens de entrada y $0,002 por cada 1000 tokens de salida, por lo que el modelo ajustado es aproximadamente ocho veces m\u00e1s caro de ejecutar. Y aunque el modelo de contexto 8K de GPT-4 tambi\u00e9n es m\u00e1s barato: $0,03 por cada 1000 tokens de entrada y $0,06 por cada 1000 tokens de salida, OpenAI todav\u00eda afirma que se puede ahorrar dinero debido a la menor necesidad de avisos en el modelo ajustado. Es una exageraci\u00f3n, pero en casos concretos, puede aplicarse.<\/p>\n
Incluso a un costo, ense\u00f1ar GPT-3.5 sobre documentos personalizados puede valer la pena para algunas personas, si puede evitar que el modelo invente cosas al respecto. Personalizar es una cosa, pero confiar en la precisi\u00f3n y confiabilidad de las salidas GPT-3.5 Turbo en un entorno de producci\u00f3n es otra cuesti\u00f3n completamente distinta. GPT-3.5 es conocido por su tendencia a confabular informaci\u00f3n.<\/p>\n
Con respecto a la privacidad de los datos, OpenAI se\u00f1ala que, como ocurre con todas sus API, OpenAI (ni nadie m\u00e1s) utiliza los datos enviados dentro y fuera de la API de ajuste para entrenar modelos de IA. Curiosamente, OpenAI enviar\u00e1 todos los datos de entrenamiento de ajuste fino del cliente a trav\u00e9s de GPT-4 con fines de moderaci\u00f3n utilizando su API de moderaci\u00f3n recientemente anunciada. Eso puede representar parte del costo de utilizar el servicio de ajuste.<\/p>\n
Y si 3.5 no es lo suficientemente bueno para usted, OpenAI dice que el ajuste fino para GPT-4 llegar\u00e1 este oto\u00f1o. Seg\u00fan nuestra experiencia, ese GPT-4 no compensa tanto las cosas, pero ajustar ese modelo (o los 8 modelos que se rumorea que trabajan juntos bajo el cap\u00f3) probablemente ser\u00e1 mucho m\u00e1s costoso.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"im\u00e1genes falsas El martes, OpenAI anunci\u00f3 ajustes para GPT-3.5 Turbo, el modelo de IA que impulsa la versi\u00f3n gratuita de ChatGPT, a trav\u00e9s de su API. Permite entrenar el modelo…<\/p>\n","protected":false},"author":1,"featured_media":785298,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[6,25967,65604,244,32959,3942,2216,728,3073],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/785297"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=785297"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/785297\/revisions"}],"predecessor-version":[{"id":785299,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/785297\/revisions\/785299"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/785298"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=785297"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=785297"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=785297"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}