{"id":1036223,"date":"2024-03-04T17:32:33","date_gmt":"2024-03-04T17:32:33","guid":{"rendered":"https:\/\/magazineoffice.com\/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4\/"},"modified":"2024-03-04T17:32:36","modified_gmt":"2024-03-04T17:32:36","slug":"anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4\/","title":{"rendered":"Anthropic afirma que sus nuevos modelos superan al GPT-4"},"content":{"rendered":"


\n<\/p>\n

\n

La startup de IA Anthropic, respaldada por cientos de millones en capital de riesgo (y quiz\u00e1s pronto cientos de millones m\u00e1s), anunci\u00f3 hoy la \u00faltima versi\u00f3n de su tecnolog\u00eda GenAI, Claude. Y la compa\u00f1\u00eda afirma que rivaliza con el GPT-4 de OpenAI en t\u00e9rminos de rendimiento.<\/p>\n

Claude 3, como se llama el nuevo GenAI de Anthropic, es una familia de modelos: Claude 3 Haiku, Claude 3 Sonnet y Claude 3 Opus, siendo Opus el m\u00e1s poderoso. Todos muestran \u00abmayores capacidades\u00bb en an\u00e1lisis y pron\u00f3stico, afirma Anthropic, as\u00ed como un rendimiento mejorado en puntos de referencia espec\u00edficos en comparaci\u00f3n con modelos como GPT-4 (pero no GPT-4 Turbo) y Gemini 1.0 Ultra de Google (pero no Gemini 1.5 Pro).<\/p>\n

En particular, Claude 3 es el primer GenAI multimodal de Anthropic, lo que significa que puede analizar tanto texto como im\u00e1genes, similar a algunas versiones de GPT-4 y Gemini. Claude 3 puede procesar fotograf\u00edas, cuadros, gr\u00e1ficos y diagramas t\u00e9cnicos, extrayendo archivos PDF, presentaciones de diapositivas y otros tipos de documentos.<\/p>\n

En un paso mejor que algunos rivales de GenAI, Claude 3 puede analizar m\u00faltiples im\u00e1genes en una sola solicitud (hasta un m\u00e1ximo de 20). Esto le permite comparar y contrastar im\u00e1genes, se\u00f1ala Anthropic.<\/p>\n

Pero el procesamiento de im\u00e1genes de Claude 3 tiene l\u00edmites.<\/p>\n

Anthropic ha impedido que los modelos identifiquen a las personas, sin duda desconfiando de las implicaciones \u00e9ticas y legales. Y la compa\u00f1\u00eda admite que Claude 3 es propenso a cometer errores con im\u00e1genes de \u201cbaja calidad\u201d (menos de 200 p\u00edxeles) y tiene dificultades con tareas que implican razonamiento espacial (por ejemplo, leer la esfera de un reloj anal\u00f3gico) y conteo de objetos (Claude 3 no puede dar datos exactos). recuentos de objetos en im\u00e1genes).<\/p>\n

\n

Cr\u00e9ditos de imagen:<\/strong> antr\u00f3pico<\/p>\n<\/div>\n

Claude 3 tampoco lo har\u00e1 generar<\/em> obra de arte. Los modelos analizan estrictamente im\u00e1genes, al menos por ahora.<\/p>\n

Ya sea con texto o im\u00e1genes, Anthropic dice que los clientes generalmente pueden esperar que Claude 3 siga mejor las instrucciones de varios pasos, produzca resultados estructurados en formatos como JSON y converse en otros idiomas adem\u00e1s del ingl\u00e9s en comparaci\u00f3n con sus predecesores. Claude 3 tambi\u00e9n deber\u00eda negarse a responder preguntas con menos frecuencia gracias a una \u00abcomprensi\u00f3n m\u00e1s matizada de las solicitudes\u00bb, dice Anthropic. Y pronto, Claude 3 citar\u00e1 la fuente de sus respuestas a las preguntas para que los usuarios puedan verificarlas.<\/p>\n

\u00abClaude 3 tiende a generar respuestas m\u00e1s expresivas y atractivas\u00bb, escribe Anthropic en un art\u00edculo de apoyo. \u201c[It\u2019s] m\u00e1s f\u00e1cil de indicar y dirigir en comparaci\u00f3n con nuestros modelos heredados. Los usuarios deber\u00edan descubrir que pueden lograr los resultados deseados con indicaciones m\u00e1s breves y concisas\u201d.<\/p>\n

Algunas de esas mejoras provienen del contexto ampliado de Claude 3.<\/p>\n

El contexto de un modelo, o ventana de contexto, se refiere a los datos de entrada (por ejemplo, texto) que el modelo considera antes de generar resultados. Los modelos con ventanas de contexto peque\u00f1as tienden a \u201colvidar\u201d el contenido incluso de conversaciones muy recientes, lo que los lleva a desviarse del tema, a menudo de manera problem\u00e1tica. Como ventaja adicional, los modelos de contexto grande pueden captar mejor el flujo narrativo de datos que reciben y generar respuestas contextualmente m\u00e1s ricas (al menos hipot\u00e9ticamente).<\/p>\n

Anthropic dice que Claude 3 admitir\u00e1 inicialmente una ventana de contexto de 200.000 tokens, equivalente a unas 150.000 palabras, y que los clientes seleccionados obtendr\u00e1n una ventana de contexto de 1 mill\u00f3n de tokens (~700.000 palabras). Eso est\u00e1 a la par con el modelo GenAI m\u00e1s nuevo de Google, el Gemini 1.5 Pro mencionado anteriormente, que tambi\u00e9n ofrece una ventana de hasta 1 mill\u00f3n de contexto.<\/p>\n

Ahora bien, el hecho de que Claude 3 sea una actualizaci\u00f3n de lo anterior no significa que sea perfecto.<\/p>\n

En un documento t\u00e9cnico, Anthropic admite que Claude 3 no es inmune a los problemas que afectan a otros modelos GenAI, a saber, prejuicios y alucinaciones (es decir, inventar cosas). A diferencia de algunos modelos GenAI, Claude 3 no puede buscar en la web; los modelos solo pueden responder preguntas utilizando datos anteriores a agosto de 2023. Y aunque Claude es multiling\u00fce, no domina con tanta fluidez ciertos idiomas de \u201cbajos recursos\u201d como el ingl\u00e9s.<\/p>\n

Pero las prometedoras actualizaciones frecuentes de Anthropic para Claude 3 en los pr\u00f3ximos meses.<\/p>\n

\u00abNo creemos que la inteligencia modelo est\u00e9 cerca de sus l\u00edmites y planeamos lanzar [enhancements] a la familia de modelos Claude 3 durante los pr\u00f3ximos meses\u201d, escribe la compa\u00f1\u00eda en una publicaci\u00f3n de blog.<\/p>\n

Opus y Sonnet ya est\u00e1n disponibles en la web y a trav\u00e9s de la consola de desarrollo y API de Anthropic, la plataforma Bedrock de Amazon y Vertex AI de Google. Haiku seguir\u00e1 m\u00e1s adelante este a\u00f1o.<\/p>\n

Aqu\u00ed est\u00e1 el desglose de precios:<\/p>\n