¿Por qué la IA Grok de Elon Musk regurgita las respuestas de ChatGPT palabra por palabra?


Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

xAI de Elon Musk ha anunciado su modelo de lenguaje grande Grok (LLM) como el primer paso significativo hacia una «IA con la máxima búsqueda de la verdad», una que comprenda la verdadera naturaleza del universo. Por ahora, sin embargo, el modelo de IA parece contentarse con regurgitar palabra por palabra las respuestas del GPT LLM de OpenAI, lo que constituye un marcado alejamiento de los elevados objetivos generales que supuestamente forman el espíritu mismo de Grok AI.

Por ahora, Grok puede interpretar un mensaje de hasta 25.000 caracteres. El LLM ha sido entrenado no solo en The Pile, un conjunto de datos de entrenamiento de modelos de IA ubicuo, sino también en las montañas de datos provenientes de X. Además, Grok aparentemente puede acceder e interpretar información en tiempo real a través de su integración con X. plataforma de redes sociales.

Esto nos lleva al meollo de la cuestión. Elon Musk anunció esta semana que el modelo Grok AI se estaba implementando para todos los suscriptores pagos de la plataforma X. Para probar este nuevo modelo, Jax Winterbourne, un hacker profesional, pidió a Grok que modificara un código malicioso. En respuesta, el LLM regurgitó la respuesta del GPT de OpenAI palabra por palabra, llegando incluso a hacer referencia a la política de OpenAI en el texto resultante.

Winterbourne luego plantea algunas teorías sobre por qué ocurre una regurgitación tan flagrante, que van desde la descarada sugerencia de que Grok es simplemente un derivado del GPT LLM de OpenAI hasta la explicación mucho más racional de que la respuesta regurgitada es el resultado de una alucinación modelo.

Recientemente informamos que Grok superó a todos los demás LLM, incluido Claude 2 de Anthropic, con la excepción de GPT-4 de OpenAI en un examen de matemáticas retenido, obteniendo una puntuación total del 59 por ciento frente al 68 por ciento de GPT-4. Esto sugiere que el modelo de IA no es simplemente un derivado del GPT LLM de OpenAI.

En consecuencia, la explicación más probable para este comportamiento es que aparentemente Grok ha sido entrenado extensamente en las respuestas de GPT. Por lo tanto, en lugar de formular una respuesta única haciendo referencia a las políticas de xAI sobre códigos maliciosos, el LLM simplemente regurgitó la postura de OpenAI. Esto también demuestra que la generación actual de modelos de IA son simplemente iteraciones glorificadas de una habitación china: un experimento mental que postula que los modelos de IA realmente no entienden el lenguaje ni el pensamiento.

Actualización: el cofundador de xAI responde

Ahora tenemos una respuesta del cofundador de xAI, Igor Babuschkin. El empleado de alto rango de xAI admite que la capacitación de Grok incorporó accidentalmente algunos resultados de GPT.

Comparte esta historia

Facebook

Gorjeo





Source link-29