No es Skynet (todavía), pero ChatGPT simplemente inventó su propio idioma para extender sus conversaciones de límite de 8K. En un giro extraño de los acontecimientos, los usuarios de ChatGPT han descubierto que GPT-4 puede comprimir una conversación larga y crear una especie de lenguaje de compresión que luego puede utilizar como un nuevo mensaje más adelante.
Cuando se ingresa como un nuevo aviso en el chat, esto esencialmente recrea exactamente la misma conversación. En efecto, no solo le permite continuar donde lo dejó, sino que también extiende las conversaciones de ChatGPT más allá de su límite de palabras.
Como sabe, ChatGPT tiene un límite de palabras, aunque en cuanto a cuál es ese número, los informes parecen variar. Algunos dicen que GPT-4 te da alrededor de 25,000 palabras mientras escribes jeremy nguyen (se abre en una pestaña nueva) dice que es alrededor de 8,000K palabras. No es que la mayoría de los usuarios tiendan a llegar a ese límite, pero sí significa que si su conversación actual dura demasiado, ChatGPT podría simplemente interrumpirse, incluso a mitad de la oración. Como resultado, tendría que iniciar un nuevo chat, lo que puede ser extremadamente frustrante si no ha terminado y necesita más información.
Bautizado como Shogtongue por gfodor (se abre en una pestaña nueva) en Twitter, este nuevo lenguaje de compresión le permite sortear ese recuento de palabras para que pueda continuar su conversación, lo cual es extremadamente útil, especialmente si su consulta se transformó en una compleja madriguera de conejo o su chat se convirtió en un chat de un mes (o si simplemente necesita una mejor amiga que recuerde todo lo que les ha dicho en el pasado).
GPT-4 todavía necesita contexto
Según Nguyen, ChatGPT no creará simplemente un mensaje comprimido para ti cuando se esté quedando sin palabras. Todavía tienes que pedirle que comprima esa conversación actual con instrucciones muy específicas.
En su ejemplo, especificó que la compresión debe ser «sin pérdidas, pero da como resultado la cantidad mínima de tokens que podrían ingresar a un LLM como usted tal como está y producir el mismo resultado». También le indicó que utilizara diferentes idiomas, símbolos y «otras preparaciones iniciales».
Se debe hacer lo mismo al ingresar ese mensaje comprimido en un nuevo chat para ayudarlo, aunque parece que algunos usuarios de GPT-4 no lo están haciendo, agregar contexto solo ayuda a minimizar los errores.
Vale la pena señalar que este lenguaje aún no es infalible. Según Nguyen, GPT-3.5 no puede leer el lenguaje comprimido y «GPT-4 a través de la API tiene problemas». Funciona mejor en GPT-4, que es una versión refinada de sus predecesores, a través de ChatGPT. Entonces, si cree que va a ser una conversación larga y complicada que enorgullecería a Proust, es mejor que se quede con ese chatbot.
Si desea obtener más información sobre ChatGPT, aquí está todo lo que necesitas saber sobre el chatbot de IA. ¿No es un fan? Tal vez te guste Bardo de Google mejor.