OpenAI actualiza el modelo ChatGPT-4 con una posible solución al problema de «pereza» de la IA


El jueves, OpenAI anunció actualizaciones de los modelos de IA que impulsan su asistente ChatGPT. En medio de actualizaciones menos notables, OpenAI incluyó una mención de una posible solución a un problema de «pereza» ampliamente reportado visto en GPT-4 Turbo desde su lanzamiento en noviembre. La compañía también anunció un nuevo modelo GPT-3.5 Turbo (con un precio más bajo), un nuevo modelo de integración, un modelo de moderación actualizado y una nueva forma de administrar el uso de API.

«Hoy lanzamos un modelo de vista previa GPT-4 Turbo actualizado, gpt-4-0125-preview. Este modelo completa tareas como la generación de código de manera más exhaustiva que el modelo de vista previa anterior y tiene como objetivo reducir los casos de ‘pereza’ en los que el modelo no completa una tarea», escribe OpenAI en su entrada de blog.

Desde el lanzamiento de GPT-4 Turbo, una gran cantidad de usuarios de ChatGPT han informado que la versión ChatGPT-4 de su asistente de inteligencia artificial se ha negado a realizar tareas (especialmente tareas de codificación) con la misma profundidad exhaustiva que lo hacía en versiones anteriores de GPT-4. Hemos visto este comportamiento nosotros mismos mientras experimentamos con ChatGPT a lo largo del tiempo.

OpenAI nunca ha ofrecido una explicación oficial para este cambio de comportamiento, pero los empleados de OpenAI sí lo han hecho. previamente reconocido en las redes sociales que el problema es real, y la cuenta ChatGPT X escribió en diciembre, «¡Hemos escuchado todos sus comentarios acerca de que GPT4 se está volviendo más perezoso! No hemos actualizado el modelo desde el 11 de noviembre, y esto ciertamente no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo. «

Nos comunicamos con OpenAI para preguntarle si podía proporcionar una explicación oficial para el problema de la pereza, pero no recibimos una respuesta al cierre de esta edición.

Nuevo GPT-3.5 Turbo, otras actualizaciones

En otra parte de la actualización del blog de OpenAI, la compañía anunció una nueva versión de GPT-3.5 Turbo (gpt-3.5-turbo-0125), que, según dice, ofrecerá «varias mejoras, incluida una mayor precisión en la respuesta en los formatos solicitados y una solución para un error que causó un problema de codificación de texto para llamadas a funciones en idiomas distintos del inglés.»

Y el costo de GPT-3.5 Turbo a través de la API de OpenAI disminuirá por tercera vez este año «para ayudar a nuestros clientes a escalar». Los nuevos precios de los tokens de entrada son un 50 por ciento menos, a 0,0005 dólares por 1.000 tokens de entrada, y los precios de salida son un 25 por ciento menos, a 0,0015 dólares por 1.000 tokens de salida.

Los precios simbólicos más bajos para GPT-3.5 Turbo harán que operar bots de terceros sea significativamente menos costoso, pero generalmente es más probable que el modelo GPT-3.5 fabule que el GPT-4 Turbo. Por lo tanto, podríamos ver más escenarios como el del bot de Quora que le dice a la gente que los huevos se pueden derretir (aunque la instancia usó un modelo GPT-3 ahora obsoleto llamado text-davinci-003). Si los precios de GPT-4 Turbo API bajan con el tiempo, algunos de esos problemas de alucinaciones con terceros podrían desaparecer con el tiempo.

OpenAI también anunció nuevos modelos de incrustación, text-embedding-3-small y text-embedding-3-large, que convierten el contenido en secuencias numéricas, ayudando en tareas de aprendizaje automático como agrupación y recuperación. Y un modelo de moderación actualizado, text-moderation-007, es parte de la API de la compañía que «permite a los desarrolladores identificar texto potencialmente dañino», según OpenAI.

Finalmente, OpenAI está implementando mejoras en su plataforma de desarrollador, introduciendo nuevas herramientas para administrar claves API y un nuevo panel para rastrear el uso de API. Los desarrolladores ahora pueden asignar permisos a las claves API desde la página de claves API, lo que ayuda a tomar medidas drásticas contra el uso indebido de las claves API (si caen en las manos equivocadas) que potencialmente puede costarles mucho dinero a los desarrolladores. El panel de API permite a los desarrolladores «ver el uso a nivel de característica, equipo, producto o proyecto, simplemente teniendo claves API separadas para cada uno».

Mientras el mundo de los medios aparentemente gira alrededor de la compañía con controversias y artículos de opinión sobre las implicaciones de su tecnología, lanzamientos como estos muestran que los equipos de desarrollo de OpenAI todavía están avanzando como de costumbre con actualizaciones a un ritmo bastante regular. A pesar de que la compañía se desmoronó casi por completo a fines del año pasado, parece que, bajo el capó, OpenAI sigue funcionando como de costumbre.





Source link-49