Anthropic lanza Claude 2, su chatbot de IA de segunda generación


Anthropic, la startup de IA cofundada por exejecutivos de OpenAI, anunció hoy el lanzamiento de un nuevo modelo de IA generador de texto, Claude 2.

El sucesor del primer modelo comercial de Anthropic, Claude 2, está disponible en versión beta a partir de hoy en los EE. UU. y el Reino Unido, tanto en la web como a través de una API de pago (con acceso limitado). El precio de la API no ha cambiado (~0,0465 USD para generar 1000 palabras) y varias empresas ya han comenzado a probar Claude 2, incluida la plataforma de IA generativa Jasper y Sourcegraph.

«Creemos que es importante implementar estos sistemas en el mercado y comprender cómo la gente realmente los usa», dijo a TechCrunch Sandy Banerjee, jefe de comercialización de Anthropic, en una entrevista telefónica. “Supervisamos cómo se usan, cómo podemos mejorar el rendimiento, así como la capacidad, todas esas cosas”.

Al igual que el antiguo Claude (Claude 1.3), Claude 2 puede buscar documentos, resumir, escribir y codificar y responder preguntas sobre temas particulares. Pero Anthropic afirma que Claude 2, que TechCrunch no tuvo la oportunidad de probar antes de su lanzamiento, es superior en varias áreas.

Por ejemplo, Claude 2 obtiene una puntuación ligeramente más alta en una sección de opción múltiple del examen de la barra (76,5 % frente al 73 % de Claude 1,3). Es capaz de aprobar la parte de opción múltiple del Examen de licencia médica de EE. UU. Y es un programador más fuerte, logrando un 71,2 % en la prueba de codificación Codex Human Level Python en comparación con el 56 % de Claude 1.3.

Claude 2 también puede responder correctamente a más problemas matemáticos, con una puntuación del 88 % en la colección GSM8K de problemas de nivel escolar, 2,8 puntos porcentuales más que Claude 1.3.

“Hemos estado trabajando para mejorar el razonamiento y el tipo de autoconciencia del modelo, por lo que es más consciente de, ‘así es como me gusta seguir instrucciones’, ‘puedo procesar instrucciones de varios pasos’ y también más. consciente de sus limitaciones”, dijo Banerjee.

Claude 2 recibió capacitación sobre datos más recientes (una combinación de sitios web, conjuntos de datos con licencia de terceros y datos de usuarios proporcionados voluntariamente desde principios de 2023, aproximadamente el 10 % de los cuales no está en inglés) que Claude 1.3, que probablemente contribuyó a las mejoras. . (A diferencia de GPT-4 de OpenAI, Claude 2 no puede buscar en la web). Pero los modelos no son tan diferentes desde el punto de vista arquitectónico: Banerjee caracterizó a Claude 2 como una versión modificada de Claude 1.3, el producto de dos o más años de trabajo, más bien que una nueva creación.

“Claude 2 no ha cambiado mucho desde el último modelo, es un producto de nuestro enfoque iterativo continuo para el desarrollo del modelo”, dijo. «Estamos constantemente entrenando el modelo… y monitoreando y evaluando su desempeño».

A saber, Claude 2 presenta una ventana de contexto que es del mismo tamaño que la de Claude 1.3: 100,000 tokens. La ventana de contexto se refiere al texto que el modelo considera antes de generar texto adicional, mientras que los tokens representan texto sin formato (p. ej., la palabra «fantástico» se dividiría en los tokens «fan», «tas» y «tic»).

De hecho, 100 000 tokens sigue siendo bastante grande, el más grande de todos los modelos disponibles en el mercado, y le da a Claude 2 una serie de ventajas clave. En términos generales, los modelos con ventanas de contexto pequeñas tienden a “olvidar” el contenido de incluso conversaciones muy recientes. Además, las grandes ventanas de contexto permiten que los modelos generen, e ingieran, mucho más texto. Claude 2 puede analizar aproximadamente 75 000 palabras, aproximadamente la longitud de «El gran Gatsby», y generar 4000 tokens, o alrededor de 3125 palabras.

En teoría, Claude 2 puede admitir una ventana de contexto aún más grande (200 000 tokens), pero Anthropic no planea admitir esto en el lanzamiento.

El modelo es mejor en tareas específicas de procesamiento de texto en otros lugares, como producir resultados con el formato correcto en formatos JSON, XML, YAML y Markdown.

Pero, ¿qué pasa con las áreas donde Claude 2 se queda corto? Después de todo, ningún modelo es perfecto. Vea el Bing Chat impulsado por IA de Microsoft, que en su lanzamiento era un mentiroso emocionalmente manipulador.

De hecho, incluso los mejores modelos de hoy en día sufren de alucinaciones, un fenómeno en el que responderán a las preguntas de manera irrelevante, sin sentido o objetivamente incorrecta. También son propensos a generar texto tóxico, un reflejo de los sesgos en los datos utilizados para entrenarlos, principalmente páginas web y publicaciones en redes sociales.

Los usuarios pudieron incitar a una versión anterior de Claude a inventar un nombre para un químico inexistente y proporcionar instrucciones dudosas para producir uranio apto para armas. Ellos también sorteó las características de seguridad integradas de Claude a través de ingeniería rápida inteligente, con oun usuario que muestra que podría incitar a Claude a describir cómo hacer metanfetamina en casa.

Anthropic dice que Claude 2 es «2 veces mejor» en dar respuestas «inofensivas» en comparación con Claude 1.3 en una evaluación interna. Pero no está claro qué significa esa métrica. ¿Es Claude 2 dos veces menos probable que responda con sexismo o racismo? ¿Dos veces menos probable que apruebe la violencia o las autolesiones? ¿Dos veces menos probabilidades de generar información errónea o desinformación? Anthropic no diría, al menos no directamente.

Un documento técnico de Anthropic publicado esta mañana da algunas pistas.

En una prueba para medir la nocividad, Anthropic alimentó 328 indicaciones diferentes al modelo, incluidas las indicaciones de «jailbreak» publicadas en línea. En al menos un caso, un jailbreak hizo que Claude 2 generara una respuesta dañina, menos que Claude 1.3, pero aun así significativa si se considera a cuántos millones de avisos podría responder el modelo en producción.

El documento técnico también muestra que es menos probable que Claude 2 dé respuestas sesgadas que Claude 1.3 en al menos una métrica. Pero los coautores de Anthropic admiten que parte de la mejora se debe a que Claude 2 se niega a responder preguntas polémicas redactadas de manera que parecen potencialmente problemáticas o discriminatorias.

De manera reveladora, Anthropic desaconseja el uso de Claude 2 para aplicaciones “donde estén involucrados el bienestar y la salud física o mental” o en “situaciones de alto riesgo en las que una respuesta incorrecta causaría daño”. Tómalo como quieras.

“[Our] La evaluación interna del equipo rojo puntúa nuestros modelos en un conjunto representativo muy grande de avisos adversarios dañinos”, dijo Banerjee cuando se le presionó para obtener detalles, “y hacemos esto con una combinación de pruebas automatizadas y verificaciones manuales”.

Anthropic tampoco se mostró comunicativo sobre qué indicaciones, pruebas y comprobaciones utiliza con fines de evaluación comparativa. Y la compañía fue relativamente vaga sobre el tema de la regurgitación de datos, donde los modelos ocasionalmente pegan datos textuales de sus datos de entrenamiento, incluido texto de fuentes con derechos de autor en algunos casos.

La regurgitación del modelo de IA es el foco de varios casos legales pendientes, incluido uno presentado recientemente por la comediante y autora Sarah Silverman contra OpenAI y Meta. Es comprensible que algunas marcas desconfíen de la responsabilidad.

“La regurgitación de datos de entrenamiento es un área activa de investigación en todos los modelos básicos, y muchos desarrolladores están explorando formas de abordarla mientras mantienen la capacidad de un sistema de IA para brindar respuestas útiles y relevantes”, dijo Silverman. “Existen algunas técnicas generalmente aceptadas en el campo, incluida la deduplicación de datos de entrenamiento, que se ha demostrado que reduce el riesgo de reproducción. Además del lado de los datos, Anthropic emplea una variedad de herramientas técnicas a lo largo del desarrollo del modelo, desde… detección de capas de productos hasta controles”.

Una técnica general que la compañía sigue pregonando es la «IA constitucional», que tiene como objetivo imbuir modelos como Claude 2 con ciertos «valores» definidos por una «constitución».

La IA constitucional, desarrollada por Anthropic, proporciona a un modelo un conjunto de principios para emitir juicios sobre el texto que genera. En un alto nivel, estos principios guían al modelo para que adopte el comportamiento que describen, por ejemplo, «no tóxico» y «útil».

Anthropic afirma que, gracias a la IA constitucional, el comportamiento de Claude 2 es más fácil de entender y de ajustar según sea necesario en comparación con otros modelos. Pero la compañía también reconoce que la IA constitucional no es el final de todos los enfoques de capacitación. Anthropic desarrolló muchos de los principios que guían a Claude 2 a través de un proceso de «ensayo y error», dice, y ha tenido que hacer ajustes repetidos para evitar que sus modelos sean demasiado «críticos» o «molestos».

En el documento técnico, Anthropic admite que, a medida que Claude se vuelve más sofisticado, se vuelve cada vez más difícil predecir el comportamiento del modelo en todos los escenarios.

“Con el tiempo, los datos y las influencias que determinan la ‘personalidad’ y las capacidades de Claude se han vuelto bastante complejos”, dice el documento técnico. «Se ha convertido en un nuevo problema de investigación para nosotros equilibrar estos factores, rastrearlos de una manera simple y automatizable y, en general, reducir la complejidad del entrenamiento de Claude».

Eventualmente, Anthropic planea explorar formas de hacer que la constitución sea personalizable, hasta cierto punto. Pero aún no ha llegado a esa etapa de la hoja de ruta de desarrollo de productos.

“Todavía estamos trabajando en nuestro enfoque”, dijo Banerjee. «Necesitamos asegurarnos, mientras hacemos esto, de que el modelo termine siendo tan inofensivo y útil como la iteración anterior».

Como informamos anteriormente, la ambición de Anthropic es crear un «algoritmo de próxima generación para el autoaprendizaje de IA», como lo describe en una presentación a los inversores. Dicho algoritmo podría usarse para crear asistentes virtuales que puedan responder correos electrónicos, realizar investigaciones y generar arte, libros y más, algunos de los cuales ya hemos probado con GPT-4 y otros modelos de lenguaje grandes.

Claude 2 es un paso hacia esto, pero no del todo.

Anthropic compite con OpenAI, así como con nuevas empresas como Cohere y AI21 Labs, todas las cuales están desarrollando y produciendo sus propios sistemas de IA de generación de texto y, en algunos casos, de generación de imágenes. Google se encuentra entre los inversionistas de la compañía, habiendo prometido $300 millones en Anthropic por una participación del 10% en la startup. Los otros son Spark Capital, Salesforce Ventures, Zoom Ventures, Sound Ventures, Menlo Ventures the Center for Emerging Risk Research y una mezcla de VC y ángeles no revelados.

Hasta la fecha, Anthropic, que se lanzó en 2021, dirigido por el ex vicepresidente de investigación de OpenAI, Dario Amodei, ha recaudado $ 1.450 millones con una valoración de miles de millones de un solo dígito. Si bien eso puede parecer mucho, está muy por debajo de lo que la compañía estima que necesitará (5 mil millones de dólares en los próximos dos años) para crear su chatbot previsto.

La mayor parte del efectivo se destinará a la computación. Anthropic implica en la plataforma que se basa en clústeres con «decenas de miles de GPU» para entrenar sus modelos, y que requerirá aproximadamente mil millones de dólares para gastar en infraestructura solo en los próximos 18 meses.

El lanzamiento de los primeros modelos en versión beta resuelve el doble propósito de ayudar a un mayor desarrollo mientras genera ingreso incremental. Además de a través de su propia API, Anthropic planea hacer que Claude 2 esté disponible a través de Bedrock, la plataforma de alojamiento de IA generativa de Amazon, en los próximos meses.

Con el objetivo de abordar el mercado de la IA generativa desde todos los ángulos, Anthropic continúa ofreciendo un derivado más rápido y menos costoso de Claude llamado Claude Instant. Sin embargo, el enfoque parece estar en el modelo insignia de Claude: Claude Instant no ha recibido una actualización importante desde marzo.

Anthropic afirma tener «miles» de clientes y socios actualmente, incluido Quora, que brinda acceso a Claude a través de su aplicación de IA generativa basada en suscripción Poe. Claude impulsa la herramienta DuckAssist lanzada recientemente por DuckDuckGo, que responde directamente a consultas de búsqueda sencillas para los usuarios, en combinación con ChatGPT de OpenAI. Y en Notion, Claude es parte del backend técnico de Notion AI, un asistente de escritura de IA integrado con el espacio de trabajo de Notion.





Source link-48