Gemini 1.5 se vuelve oficial, tiene una ventana de contexto mejor y más amplia y un rendimiento comparable al de Gemini 1.0 Ultra


Sólo han pasado un par de meses desde que Google lanzó Gemini 1.0 y ahora la compañía siguió adelante y anunció Gemini 1.5, el modelo de próxima generación que tiene «un rendimiento dramáticamente mejorado». Google afirma que una de las mejores cosas de la nueva actualización es que ofrecerá una ventana de contexto mucho más grande, por lo que si eres como yo y te gusta usar el chatbot, entonces esto es algo que sin duda te interesará.

La destreza de Gemini 1.5 demuestra que Google no pierde el tiempo en la carrera por convertirse en una de las mejores empresas con inteligencia artificial

Esto es lo que Google tiene que decir sobre Gemini 1.5:

La “ventana contextual” de un modelo de IA está formada por tokens, que son los componentes básicos utilizados para procesar la información. Los tokens pueden ser partes enteras o subsecciones de palabras, imágenes, vídeos, audio o código. Cuanto más grande sea la ventana de contexto de un modelo, más información podrá absorber y procesar en un mensaje determinado, lo que hará que su resultado sea más consistente, relevante y útil.

También vale la pena señalar que Gemini 1.5 Pro sigue siendo la oferta de nivel medio de Google y la ventana de contexto estándar que ofrece es de 128.000 tokens. A modo de comparación, la versión anterior tiene 32.000 tokens. La nueva actualización es capaz de traducir más de 700.000 palabras, así como bases de código con más de 30.000 líneas de código, 11 horas de audio y 1 hora de vídeo. GPT-4 turbo también ofrece 128,00 tokens. Comparativamente, tenemos Claude 2.1, que ofrece 200.000 tokens. Si se pregunta cómo funcionará la nueva actualización, aquí tiene una explicación proporcionada por Google.

“1.5 Pro puede Analice, clasifique y resuma sin problemas grandes cantidades de contenido. dentro de un mensaje determinado. Por ejemplo, cuando se le dan las transcripciones de 402 páginas de la misión del Apolo 11 a la luna, puede razonar sobre conversaciones, eventos y detalles que se encuentran en el documento”.

Además de eso, aquí hay más de lo que Gemini 1.5 Pro es capaz de hacer.

“1.5 Pro puede Realizar tareas de comprensión y razonamiento altamente sofisticadas para diferentes modalidades, incluido el video.. Por ejemplo, cuando se le presenta una película muda de Buster Keaton de 44 minutos, el modelo puede analizar con precisión varios puntos y eventos de la trama, e incluso razonar sobre pequeños detalles de la película que fácilmente podrían pasarse por alto”.

Avanzando más, Gemini 15 Pro:

poder realizar tareas de resolución de problemas más relevantes en bloques de código más largos. Cuando se le presenta un mensaje con más de 100.000 líneas de código, puede razonar mejor entre ejemplos, sugerir modificaciones útiles y dar explicaciones sobre cómo funcionan las diferentes partes del código”.

Otra cosa a tener en cuenta aquí es que Google está ejecutando hasta 1 millón de tokens en producción, y estos estarán disponibles para los primeros evaluadores. Al mismo tiempo, la empresa ha probado con éxito más de 10 millones de tokens. Esto muestra que Gemini 1.5 y las actualizaciones futuras no se ralentizarán.

Google afirma que todos estos avances de Gemini 1.5 se realizan posiblemente utilizando la nueva arquitectura MoE de mezcla de expertos donde los modelos se «dividen en redes neuronales ‘expertas’ más pequeñas». Y gracias a esto, la nueva actualización es más eficiente tanto para entrenar como para servir.

Dependiendo del tipo de información proporcionada, los modelos MoE aprenden a activar selectivamente sólo las vías expertas más relevantes en su red neuronal. Esta especialización mejora enormemente la eficiencia del modelo.

En cuanto al rendimiento, Google afirma que Gemini 1.5 Pro puede superar a la versión anterior en el 87% de los puntos de referencia, abarcando varios campos, incluidas evaluaciones de texto, código, imagen, audio y video. Google afirma además que, por el momento, el rendimiento es comparable al del 1.0 Ultra.

Gemini 1.5 Pro también muestra impresionantes habilidades de “aprendizaje en contexto”, lo que significa que puede aprender una nueva habilidad a partir de información proporcionada en un mensaje largo, sin necesidad de ajustes adicionales.

Lamentablemente, tendrá que esperar para comenzar con Gemini 1.5 Pro, ya que Google afirma que la ventana de contexto más grande se está implementando actualmente con una capacidad limitada para los desarrolladores y clientes empresariales. En su etapa actual, todavía es experimental, por lo que es posible que tengas que esperar un poco más antes de que esté disponible para todos.

Próximamente, planeamos introducir niveles de precios que comiencen en la ventana de contexto estándar de 128 000 y escale hasta 1 millón de tokens, a medida que mejoremos el modelo.

Es seguro decir que el Gemini 1.5 Pro causará sensación una vez que esté disponible para todos. Me alegro mucho de que Google trabaje constantemente para mejorar su modelo de IA. Incluso si no todos tenemos acceso a él, me alegro de que se esté implementando y pueda estar disponible para todos muy pronto en el futuro.

Fuente de noticias: Blog de Google

Comparte esta historia

Facebook

Gorjeo



Source link-29