{"id":726151,"date":"2023-07-11T16:41:34","date_gmt":"2023-07-11T16:41:34","guid":{"rendered":"https:\/\/magazineoffice.com\/anthropic-lanza-claude-2-su-chatbot-de-ia-de-segunda-generacion\/"},"modified":"2023-07-11T16:41:38","modified_gmt":"2023-07-11T16:41:38","slug":"anthropic-lanza-claude-2-su-chatbot-de-ia-de-segunda-generacion","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/anthropic-lanza-claude-2-su-chatbot-de-ia-de-segunda-generacion\/","title":{"rendered":"Anthropic lanza Claude 2, su chatbot de IA de segunda generaci\u00f3n"},"content":{"rendered":"
\n<\/p>\n
Anthropic, la startup de IA cofundada por exejecutivos de OpenAI, anunci\u00f3 hoy el lanzamiento de un nuevo modelo de IA generador de texto, Claude 2.<\/p>\n
El sucesor del primer modelo comercial de Anthropic, Claude 2, est\u00e1 disponible en versi\u00f3n beta a partir de hoy en los EE. UU. y el Reino Unido, tanto en la web como a trav\u00e9s de una API de pago (con acceso limitado). El precio de la API no ha cambiado (~0,0465 USD para generar 1000 palabras) y varias empresas ya han comenzado a probar Claude 2, incluida la plataforma de IA generativa Jasper y Sourcegraph.<\/p>\n
\u00abCreemos que es importante implementar estos sistemas en el mercado y comprender c\u00f3mo la gente realmente los usa\u00bb, dijo a TechCrunch Sandy Banerjee, jefe de comercializaci\u00f3n de Anthropic, en una entrevista telef\u00f3nica. \u201cSupervisamos c\u00f3mo se usan, c\u00f3mo podemos mejorar el rendimiento, as\u00ed como la capacidad, todas esas cosas\u201d.<\/p>\n
Al igual que el antiguo Claude (Claude 1.3), Claude 2 puede buscar documentos, resumir, escribir y codificar y responder preguntas sobre temas particulares. Pero Anthropic afirma que Claude 2, que TechCrunch no tuvo la oportunidad de probar antes de su lanzamiento, es superior en varias \u00e1reas.<\/p>\n
Por ejemplo, Claude 2 obtiene una puntuaci\u00f3n ligeramente m\u00e1s alta en una secci\u00f3n de opci\u00f3n m\u00faltiple del examen de la barra (76,5 % frente al 73 % de Claude 1,3). Es capaz de aprobar la parte de opci\u00f3n m\u00faltiple del Examen de licencia m\u00e9dica de EE. UU. Y es un programador m\u00e1s fuerte, logrando un 71,2 % en la prueba de codificaci\u00f3n Codex Human Level Python en comparaci\u00f3n con el 56 % de Claude 1.3.<\/p>\n
Claude 2 tambi\u00e9n puede responder correctamente a m\u00e1s problemas matem\u00e1ticos, con una puntuaci\u00f3n del 88 % en la colecci\u00f3n GSM8K de problemas de nivel escolar, 2,8 puntos porcentuales m\u00e1s que Claude 1.3.<\/p>\n
\u201cHemos estado trabajando para mejorar el razonamiento y el tipo de autoconciencia del modelo, por lo que es m\u00e1s consciente de, ‘as\u00ed es como me gusta seguir instrucciones’, ‘puedo procesar instrucciones de varios pasos’ y tambi\u00e9n m\u00e1s. consciente de sus limitaciones\u201d, dijo Banerjee.<\/p>\n
Claude 2 recibi\u00f3 capacitaci\u00f3n sobre datos m\u00e1s recientes (una combinaci\u00f3n de sitios web, conjuntos de datos con licencia de terceros y datos de usuarios proporcionados voluntariamente desde principios de 2023, aproximadamente el 10 % de los cuales no est\u00e1 en ingl\u00e9s) que Claude 1.3, que probablemente contribuy\u00f3 a las mejoras. . (A diferencia de GPT-4 de OpenAI, Claude 2 no puede buscar en la web). Pero los modelos no son tan diferentes desde el punto de vista arquitect\u00f3nico: Banerjee caracteriz\u00f3 a Claude 2 como una versi\u00f3n modificada de Claude 1.3, el producto de dos o m\u00e1s a\u00f1os de trabajo, m\u00e1s bien que una nueva creaci\u00f3n.<\/p>\n
\u201cClaude 2 no ha cambiado mucho desde el \u00faltimo modelo, es un producto de nuestro enfoque iterativo continuo para el desarrollo del modelo\u201d, dijo. \u00abEstamos constantemente entrenando el modelo… y monitoreando y evaluando su desempe\u00f1o\u00bb.<\/p>\n
A saber, Claude 2 presenta una ventana de contexto que es del mismo tama\u00f1o que la de Claude 1.3: 100,000 tokens. La ventana de contexto se refiere al texto que el modelo considera antes de generar texto adicional, mientras que los tokens representan texto sin formato (p. ej., la palabra \u00abfant\u00e1stico\u00bb se dividir\u00eda en los tokens \u00abfan\u00bb, \u00abtas\u00bb y \u00abtic\u00bb).<\/p>\n
De hecho, 100\u00a0000 tokens sigue siendo bastante grande, el m\u00e1s grande de todos los modelos disponibles en el mercado, y le da a Claude 2 una serie de ventajas clave. En t\u00e9rminos generales, los modelos con ventanas de contexto peque\u00f1as tienden a \u201colvidar\u201d el contenido de incluso conversaciones muy recientes. Adem\u00e1s, las grandes ventanas de contexto permiten que los modelos generen, e ingieran, mucho m\u00e1s texto. Claude 2 puede analizar aproximadamente 75\u00a0000 palabras, aproximadamente la longitud de \u00abEl gran Gatsby\u00bb, y generar 4000 tokens, o alrededor de 3125 palabras.<\/p>\n
En teor\u00eda, Claude 2 puede admitir una ventana de contexto a\u00fan m\u00e1s grande (200\u00a0000 tokens), pero Anthropic no planea admitir esto en el lanzamiento.<\/p>\n
El modelo es mejor en tareas espec\u00edficas de procesamiento de texto en otros lugares, como producir resultados con el formato correcto en formatos JSON, XML, YAML y Markdown.<\/p>\n
Pero, \u00bfqu\u00e9 pasa con las \u00e1reas donde Claude 2 se queda corto? Despu\u00e9s de todo, ning\u00fan modelo es perfecto. Vea el Bing Chat impulsado por IA de Microsoft, que en su lanzamiento era un mentiroso emocionalmente manipulador.<\/p>\n
De hecho, incluso los mejores modelos de hoy en d\u00eda sufren de alucinaciones, un fen\u00f3meno en el que responder\u00e1n a las preguntas de manera irrelevante, sin sentido o objetivamente incorrecta. Tambi\u00e9n son propensos a generar texto t\u00f3xico, un reflejo de los sesgos en los datos utilizados para entrenarlos, principalmente p\u00e1ginas web y publicaciones en redes sociales.<\/p>\n