5 actualizaciones clave en GPT-4 Turbo, el modelo más nuevo de OpenAI


OpenAI anunció recientemente múltiples funciones nuevas para ChatGPT y otras herramientas de inteligencia artificial durante su reciente conferencia de desarrolladores. El próximo lanzamiento de una herramienta creadora de chatbots, llamada GPT (abreviatura de transformadores generativos preentrenados), y un nuevo modelo para ChatGPT, llamado GPT-4 Turbo, son dos de los anuncios más importantes del evento de la compañía.

Esta no es la primera vez que OpenAI le da a ChatGPT un nuevo modelo. A principios de este año, OpenAI actualizó el algoritmo de ChatGPT de GPT-3.5 a GPT-4. ¿Tiene curiosidad por saber en qué se diferenciará la versión GPT-4 Turbo del chatbot cuando se lance a finales de este año? Según lanzamientos anteriores, es probable que el modelo se implemente primero para los suscriptores de ChatGPT Plus y luego para el público en general.

Si bien OpenAI rechazó la solicitud de WIRED de acceso temprano al nuevo modelo ChatGPT, esto es lo que esperamos que sea diferente en GPT-4 Turbo.

Nuevo límite de conocimiento

Dígale adiós al recordatorio perpetuo de ChatGPT de que su fecha límite de información está restringida a septiembre de 2021. «Estamos tan molestos como todos ustedes, probablemente más, porque el conocimiento de GPT-4 sobre el mundo terminó en 2021», dijo Sam Altman. CEO de OpenAI, en la conferencia. El nuevo modelo incluye información hasta abril de 2023, por lo que puede responder con un contexto más actual a sus consultas. Altman expresó su intención de no permitir que la información de ChatGPT se vuelva a ensuciar. La forma en que se obtiene esta información sigue siendo un importante punto de controversia para los autores y editores que no están satisfechos con la forma en que OpenAI utiliza sus escritos sin consentimiento.

Introduzca indicaciones más largas

¡No tengas miedo de ser muy largo y detallado con tus indicaciones! «GPT-4 Turbo admite hasta 128.000 tokens de contexto», dijo Altman. Aunque los tokens no son sinónimos de la cantidad de palabras que puede incluir con un mensaje, Altman comparó el nuevo límite con alrededor de la cantidad de palabras de 300 páginas de un libro. Supongamos que desea que el chatbot analice un documento extenso y le proporcione un resumen; ahora puede ingresar más información a la vez con GPT-4 Turbo.

Mejor seguimiento de instrucciones

¿No sería bueno si ChatGPT fuera mejor a la hora de prestar atención a los detalles de lo que estás solicitando en un mensaje? Según OpenAI, el nuevo modelo escuchará mejor. «GPT-4 Turbo funciona mejor que nuestros modelos anteriores en tareas que requieren el seguimiento cuidadoso de instrucciones, como generar formatos específicos (por ejemplo, ‘responder siempre en XML’)», se lee en la publicación del blog de la compañía. Esto puede resultar particularmente útil para las personas que escriben código con la ayuda del chatbot.

Precios más baratos para desarrolladores

Puede que no sea una prioridad para la mayoría de los usuarios de ChatGPT, pero puede resultar bastante costoso para los desarrolladores utilizar la interfaz de programación de aplicaciones de OpenAI. «Entonces, el nuevo precio es de un centavo por mil tokens de aviso y de tres centavos por mil tokens de finalización», dijo Altman. En lenguaje sencillo, esto significa que GPT-4 Turbo puede costar menos a los desarrolladores ingresar información y recibir respuestas.

Múltiples herramientas en un chat

Los suscriptores de ChatGPT Plus pueden estar familiarizados con el menú desplegable de GPT-4 donde pueden seleccionar qué herramientas de chatbot les gustaría usar. Por ejemplo, puede elegir la versión beta de Dall-E 3 si desea algunas imágenes generadas por IA o la versión Navegar con Bing si necesita enlaces de Internet. Ese menú desplegable pronto se dirigirá al cementerio de software. “Escuchamos sus comentarios. Ese selector de modelos fue extremadamente molesto”, dijo Altman. El chatbot actualizado con GPT-4 Turbo elegirá las herramientas adecuadas, por lo que si solicita una imagen, por ejemplo, se espera que utilice automáticamente Dall-E 3 para responder a su solicitud.



Source link-46