OpenAI presenta GPT-4 Turbo: mayor memoria, menor costo, nuevos conocimientos


El lunes, en el evento OpenAI DevDay, el director ejecutivo de la compañía, Sam Altman, anunció una importante actualización de su modelo de lenguaje GPT-4 llamado GPT-4 Turbo, que puede procesar una cantidad de texto mucho mayor que GPT-4 y presenta una fecha límite de conocimiento de abril de 2023. También presentó API para DALL-E 3, GPT-4 Vision y texto a voz, y lanzó una «API de asistentes» que facilita a los desarrolladores la creación de aplicaciones de IA de asistencia.

OpenAI organizó su primer evento para desarrolladores el 6 de noviembre en San Francisco llamado DevDay. Durante el discurso de apertura pronunciado por Altman frente a una pequeña audiencia, el CEO mostró los impactos más amplios de su tecnología de inteligencia artificial en el mundo, incluida la ayuda a las personas con la accesibilidad tecnológica. Altman compartió algunas estadísticas y dijo que más de 2 millones de desarrolladores están creando aplicaciones utilizando sus API, más del 92 por ciento de las empresas Fortune 500 están creando en su plataforma y que ChatGPT tiene más de 100 millones de usuarios activos semanales.

En un momento, el director ejecutivo de Microsoft, Satya Nadella, hizo una aparición sorpresa en el escenario, hablando con Altman sobre la asociación cada vez más profunda entre Microsoft y OpenAI y compartiendo algunas ideas generales sobre el futuro de la tecnología, que él cree que empoderará a las personas.

El discurso de apertura de OpenAI DevDay 2023 de Sam Altman.

GPT-4 recibe una actualización

Durante la conferencia magistral, Altman lanzó varios anuncios importantes, incluidos los «GPT», que son roles de IA ChatGPT personalizados, compartibles y definidos por el usuario que cubrimos por separado en otro artículo. También lanzó el modelo GPT-4 Turbo antes mencionado, que quizás se destaca más por tres propiedades: longitud del contexto, conocimiento más actualizado y precio.

Los modelos de lenguaje grande (LLM) como GPT-4 se basan en una longitud de contexto o «ventana de contexto» que define cuánto texto pueden procesar a la vez. Esa ventana a menudo se mide en tokens, que son fragmentos de palabras. Según OpenAI, un token corresponde aproximadamente a unos cuatro caracteres de texto en inglés, o aproximadamente tres cuartos de una palabra. Eso significa que GPT-4 Turbo puede considerar alrededor de 96.000 palabras de una sola vez, que es más que muchas novelas. Además, una longitud de contexto de 128 KB puede dar lugar a conversaciones mucho más largas sin que el asistente de IA pierda la memoria a corto plazo del tema en cuestión.

Anteriormente, GPT-4 presentaba una ventana contextual de 8000 tokens, con un modelo de 32K disponible a través de una API para algunos desarrolladores. Las ventanas de contexto extendido no son completamente nuevas para GPT-4 Turbo: Anthropic anunció una versión de token de 100K de su modelo de lenguaje Claude en mayo, y Claude 2 continuó esa tradición.

Durante la mayor parte del año pasado, ChatGPT y GPT-4 solo incorporaron oficialmente conocimiento de los eventos hasta septiembre de 2021 (aunque a juzgar por los informes, OpenAI ha estado probando silenciosamente modelos con cortes más recientes en varios momentos). GPT-4 Turbo tiene conocimiento de los eventos hasta abril de 2023, lo que lo convierte en el modelo de lenguaje más actualizado de OpenAI hasta el momento.

Y con respecto al costo, ejecutar GPT-4 Turbo como API cuesta un tercio menos que GPT-4 para tokens de entrada (a $0,01 por 1000 tokens) y la mitad menos que GPT-4 para tokens de salida (a $0,03 por 1000 tokens). ). En relación con esto, OpenAI también bajó los precios de sus modelos GPT-3.5 Turbo API. Y OpenAI anunció que está duplicando el límite de tokens por minuto para todos los clientes de pago de GPT-4, lo que también permite solicitudes de mayores límites de velocidad.

Más capacidades llegan a la API

Las API, o interfaces de programación de aplicaciones, son formas en que los programas pueden comunicarse entre sí. Permiten a los desarrolladores de software integrar los modelos de OpenAI en sus aplicaciones. A partir del lunes, OpenAI ahora ofrece acceso a API para: GPT-4 Turbo con visión, que puede analizar imágenes y usarlas en conversaciones; DALL-E 3, que puede generar imágenes mediante síntesis de imágenes de IA; y el modelo de texto a voz de OpenAI, que ha causado sensación en la aplicación ChatGPT con sus voces realistas.

OpenAI también presentó la «API de asistentes», que puede ayudar a los desarrolladores a crear «experiencias similares a las de los agentes» dentro de sus propias aplicaciones. Es similar a una versión API del nuevo producto «GPT» de OpenAI que permite instrucciones personalizadas y el uso de herramientas externas.

La clave de la API de Asistentes, dice OpenAI, son los «hilos persistentes e infinitamente largos», que permiten a los desarrolladores renunciar a realizar un seguimiento del historial de conversaciones existente y gestionar manualmente las limitaciones de las ventanas de contexto. En cambio, los desarrolladores pueden agregar cada mensaje nuevo de la conversación a un hilo existente. A diferencia de la IA «sin estado», que significa que el modelo de IA aborda cada sesión de chat como una pizarra en blanco sin conocimiento de interacciones previas, la gente suele llamar a este enfoque de subprocesos IA «con estado».

Retazos

También el lunes, OpenAI presentó lo que llama «Copyright Shield», que es el compromiso de la compañía de proteger a sus clientes empresariales y API de reclamos legales relacionados con la infracción de derechos de autor debido al uso de sus generadores de texto o imágenes. El escudo no se aplica a los usuarios de ChatGPT gratuito o Plus. Y OpenAI anunció el lanzamiento de la versión 3 de su modelo Whisper de código abierto, que maneja el reconocimiento de voz.

Al cerrar su discurso de apertura, Altman enfatizó el enfoque iterativo de su compañía hacia la introducción de características de IA con más agencia (refiriéndose a los GPT) y expresó optimismo de que la IA creará abundancia. «A medida que la inteligencia se integre en todas partes, todos tendremos superpoderes cuando los demandemos», afirmó.

Mientras invitaba a los asistentes a regresar al DevDay el próximo año, Altman dejó entrever lo que está por venir: «Lo que lanzamos hoy va a parecer muy pintoresco en comparación con lo que estamos creando para ustedes ahora».



Source link-49