Es probable que el modelo secreto especial de IA de Google te gane en matemáticas difíciles


Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

En medio de la carrera en curso en Silicon Valley para desarrollar modelos de inteligencia artificial con respuestas similares a las humanas, Google ha compartido los datos más recientes para su modelo Gemini 1.5 Pro. Al igual que ChatGPT, Gemini también utiliza inteligencia artificial para resolver problemas y esta vez Google está promocionando las capacidades matemáticas de su producto. Los modelos de IA han aparecido en las noticias por su capacidad para resolver tareas de nivel universitario como medida de su «inteligencia», y el artículo de investigación de Google muestra que el modelo mejora su puntuación en matemáticas y resuelve con éxito problemas que forman parte de la Olimpiada Internacional de Matemáticas.

El modelo Gemini especializado de Google para problemas matemáticos resuelve problemas complejos

Los detalles de los últimos puntajes de matemáticas de Gemini se compartieron en el último informe técnico del modelo la semana pasada. Este documento bastante voluminoso muestra que Google tenía la intención de emular la formación que reciben los matemáticos para resolver problemas complejos y, para lograrlo, la empresa entrenó una variante especializada de su modelo Gemini AI.

La variante matemática de Gemini 1.5 Pro parece haber sido probada con varios puntos de referencia. Según su documento, Google se basó en una variedad de puntos de referencia para evaluar el resultado de su último modelo matemático de IA. Estos incluyen los puntos de referencia MATH, el American Invitational Mathematics Examination (AIME) y los puntos de referencia internos HiddenMath de Google, que también introducen nuevos problemas que el modelo no ha encontrado durante su entrenamiento.

Según Google, el rendimiento matemático del Gemini 1.5 Pro en los puntos de referencia MATH «está a la par con un desempeño humano-experto«, con el modelo resolviendo significativamente más problemas en los puntos de referencia AIME y mejorando las puntuaciones en los demás en comparación con el Gemini 1.5 Pro estándar y no matemático.

Google

Google también compartió algunos ejemplos de los problemas que había resuelto Gemini 1.5 Pro. Según su periódico, estos son aquellos problemas que «Gemini 1.5 Pro, GPT-4 Turbo y todos los modelos Gemini anteriores respuesta[ed] incorrectamente,» lo que termina elevando el listón de rendimiento del producto de Google.

De los tres ejemplos que compartió, dos fueron resueltos por el Gemini 1.5 Pro específico matemático, mientras que uno fue resuelto incorrectamente por la variante estándar Gemini 1.5 Pro. Los problemas generalmente requieren que quien los resuelve recuerde formulaciones matemáticas básicas en álgebra y confíe en su subestación junto con otras reglas matemáticas para derivar las respuestas correctas.

Aparte del problema, Google también comparte detalles importantes para las pruebas comparativas de Gemini 1.5 Pro. Estos colocan a la variante matemática específica por delante de GPT-4 Turbo y Claude de Amazon en los cinco puntajes de referencia compartidos.

Según Google, su variante especializada en matemáticas es capaz de lograr «una precisión del 80,6 % en el punto de referencia MATH de una sola muestra y una precisión del 91,1 % al muestrear 256 soluciones y seleccionar una respuesta candidata (rm@256)«, una hazaña que lo coloca en un nivel equivalente al de un experto humano. De hecho, la puntuación del 91,1% en el modelo matemático es significativamente más alta que la puntuación ‘SOTA’ (estado del arte) de apenas 6,9% en tan solo tres años. hace, según Jeff Dean, científico jefe de Google Deep Mind.

Comparte esta historia

Facebook

Gorjeo



Source link-29