{"id":897161,"date":"2023-11-23T05:48:57","date_gmt":"2023-11-23T05:48:57","guid":{"rendered":"https:\/\/magazineoffice.com\/claude-2-1-llm-de-anthropic-sigue-siendo-inferior-a-gpt-4-de-openai-en-el-retiro-de-contexto\/"},"modified":"2023-11-23T05:49:01","modified_gmt":"2023-11-23T05:49:01","slug":"claude-2-1-llm-de-anthropic-sigue-siendo-inferior-a-gpt-4-de-openai-en-el-retiro-de-contexto","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/claude-2-1-llm-de-anthropic-sigue-siendo-inferior-a-gpt-4-de-openai-en-el-retiro-de-contexto\/","title":{"rendered":"Claude 2.1 LLM de Anthropic sigue siendo inferior a GPT-4 de OpenAI en el retiro de contexto"},"content":{"rendered":"


\n<\/p>\n

\n

\n

\t\t\t\t\tEsto no es un consejo de inversi\u00f3n. El autor no tiene posici\u00f3n en ninguna de las acciones mencionadas. Wccftech.com tiene una pol\u00edtica de divulgaci\u00f3n y \u00e9tica.\n\t\t\t\t<\/p>\n

La capacidad limitada de las iteraciones actuales de los modelos de lenguaje grande (LLM, por sus siglas en ingl\u00e9s) para comprender cargas cada vez mayores de contexto sigue siendo uno de los mayores impedimentos en este momento para lograr la singularidad de la IA, un umbral en el que la inteligencia artificial excede de manera demostrable a la inteligencia humana. A primera vista, la ventana de contexto de 200.000 tokens para Claude 2.1 LLM de Anthropic parece impresionante. Sin embargo, su capacidad de recuperaci\u00f3n de contexto deja mucho que desear, especialmente si se compara con las capacidades de recuperaci\u00f3n relativamente s\u00f3lidas del GPT-4 de OpenAI.<\/p>\n

\n

Nuestro nuevo modelo Claude 2.1 ofrece una ventana de contexto de 200.000 tokens l\u00edder en la industria, una disminuci\u00f3n del doble en las tasas de alucinaciones, indicaciones del sistema, uso de herramientas y precios actualizados.<\/p>\n

Claude 2.1 est\u00e1 disponible a trav\u00e9s de API en nuestra consola y est\u00e1 impulsando nuestra experiencia de chat https:\/\/t.co\/uLbS2JNczH. pic.twitter.com\/T1XdQreluH<\/a><\/p>\n

– Antr\u00f3pico (@AnthropicAI) 21 de noviembre de 2023<\/a><\/p>\n<\/blockquote>\n

Anthropic anunci\u00f3 ayer que su \u00faltimo LLM Claude 2.1 ahora admite una ventana de contexto \u00abl\u00edder en la industria\u00bb de 200.000 tokens al tiempo que ofrece una disminuci\u00f3n del doble en las alucinaciones del modelo, una situaci\u00f3n en la que un modelo de IA generativo percibe patrones u objetos inexistentes a menudo como resultado de entradas poco claras o contradictorias, que generan resultados inexactos o sin sentido.<\/p>\n

Para beneficio de aquellos que quiz\u00e1s no lo sepan, un token es una unidad b\u00e1sica de texto o c\u00f3digo que los LLM utilizan para procesar y generar lenguaje. Dependiendo del m\u00e9todo de tokenizaci\u00f3n empleado, un token puede ser un car\u00e1cter, una palabra, una subpalabra o un segmento completo de texto o c\u00f3digo. La ventana contextual ampliada de Claude 2.1 permite al LLM comprender y procesar un libro de casi 470 p\u00e1ginas.<\/p>\n

Por supuesto, la ventana de contexto de 200.000 tokens de Claude 2.1 de Anthropic es bastante impresionante en comparaci\u00f3n con el GPT-4 de OpenAI, que solo admite una ventana de 128.000 tokens. Sin embargo, la aplicaci\u00f3n en el mundo real de esta ventana de contexto ampliada pierde algo de su brillo cuando se considera la capacidad poco impresionante de Claude 2.1 para recordar el contexto.<\/p>\n

Recordatorio de contexto: Claude 2.1 de Anthropic frente a GPT-4 de OpenAI<\/h2>\n

El experto en inteligencia artificial Greg Kamradt enfrent\u00f3 recientemente a Claude 2.1 con GPT-4 a trav\u00e9s de una prueba estandarizada que ten\u00eda como objetivo determinar con qu\u00e9 precisi\u00f3n un modelo en particular recordaba un hecho espec\u00edfico incrustado en diferentes profundidades de paso.<\/p>\n

Espec\u00edficamente, Kamradt incorpor\u00f3 el siguiente texto en diferentes profundidades de pasaje:<\/p>\n

\n

\u201cLo mejor que se puede hacer en San Francisco es comer un s\u00e1ndwich y sentarse en Dolores Park en un d\u00eda soleado\u201d.<\/p>\n<\/blockquote>\n

El investigador dividi\u00f3 su texto de entrada en 35 partes iguales y luego coloc\u00f3 el hecho anterior en cada una de estas 35 profundidades, pidi\u00e9ndole a Claude 2.1 que respondiera una pregunta relacionada cada vez. El investigador tambi\u00e9n vari\u00f3 la ventana de contexto, que iba desde 1.000 tokens hasta 200.000 tokens, divididos en 35 incrementos iguales. ir a esto X publicaci\u00f3n<\/a> para m\u00e1s detalles sobre la metodolog\u00eda empleada.<\/p>\n

\n
<\/div>
Claude-2.1-Resultados-de-la-prueba<\/figcaption><\/figure>\n

Arriba, encontrar\u00e1 con qu\u00e9 precisi\u00f3n Claude 2.1 de Anthropic pudo recordar el hecho incrustado en una profundidad de documento y una longitud de ventana de contexto determinadas. Cada bloque rojo representa una falla al recordar. Como se desprende del fragmento anterior, la capacidad de recuperaci\u00f3n del LLM se degrada progresivamente a medida que aumenta la ventana de contexto.<\/p>\n

\n
\"\"<\/div>
Resultados de la prueba GPT-4<\/figcaption><\/figure>\n

A modo de comparaci\u00f3n, arriba se muestran los resultados de una prueba similar realizada con GPT-4 de OpenAI. Aqu\u00ed, la profundidad a la que se incrust\u00f3 el hecho, as\u00ed como la ventana de contexto del LLM, se cambiaron en 15 incrementos distintos. Dir\u00edgete a esto X publicaci\u00f3n<\/a> para mas detalles.<\/p>\n

Tenga en cuenta que GPT-4 tiene menos fallas de recuperaci\u00f3n del 100 por ciento en su longitud m\u00e1xima de ventana de contexto de 128K tokens.<\/p>\n

\n
<\/div>\n
<\/div>\n<\/div>\n

Hab\u00edamos notado en una publicaci\u00f3n anterior que GPT-4 super\u00f3 a los LLM Grok de xAI y Claude 2 de Anthropic en un examen de matem\u00e1ticas prolongado. Queda por ver c\u00f3mo se desempe\u00f1a Claude 2.1 contra GPT-4 en el mismo entorno.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n