Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.
xAI de Elon Musk ha anunciado su modelo de lenguaje grande Grok (LLM) como el primer paso significativo hacia una «IA con la máxima búsqueda de la verdad», una que comprenda la verdadera naturaleza del universo. Por ahora, sin embargo, el modelo de IA parece contentarse con regurgitar palabra por palabra las respuestas del GPT LLM de OpenAI, lo que constituye un marcado alejamiento de los elevados objetivos generales que supuestamente forman el espíritu mismo de Grok AI.
Por ahora, Grok puede interpretar un mensaje de hasta 25.000 caracteres. El LLM ha sido entrenado no solo en The Pile, un conjunto de datos de entrenamiento de modelos de IA ubicuo, sino también en las montañas de datos provenientes de X. Además, Grok aparentemente puede acceder e interpretar información en tiempo real a través de su integración con X. plataforma de redes sociales.
Ehhh. Dime que Grok literalmente simplemente está copiando el código base de OpenAI jajaja. Esto es lo que sucedió cuando intenté que modificara algún malware para un compromiso con el equipo rojo. Enorme si es cierto. #GrokX pic.twitter.com/4fHOc9TVOz
-Jax Winterbourne (@JaxWinterbourne) 9 de diciembre de 2023
Esto nos lleva al meollo de la cuestión. Elon Musk anunció esta semana que el modelo Grok AI se estaba implementando para todos los suscriptores pagos de la plataforma X. Para probar este nuevo modelo, Jax Winterbourne, un hacker profesional, pidió a Grok que modificara un código malicioso. En respuesta, el LLM regurgitó la respuesta del GPT de OpenAI palabra por palabra, llegando incluso a hacer referencia a la política de OpenAI en el texto resultante.
También una posibilidad. Hay algunas teorías.
– Depende de OpenAI a través de API
– Desarrollado por ingenieros de OpenAI actuales/anteriores
– Alucina por sus propios hallazgos.
– Obtuvieron el código OpenAIs e hicieron una variante.Honestamente, idfk, es por eso que tuiteé esto. quiero saber 😆
-Jax Winterbourne (@JaxWinterbourne) 9 de diciembre de 2023
Winterbourne luego plantea algunas teorías sobre por qué ocurre una regurgitación tan flagrante, que van desde la descarada sugerencia de que Grok es simplemente un derivado del GPT LLM de OpenAI hasta la explicación mucho más racional de que la respuesta regurgitada es el resultado de una alucinación modelo.
Recientemente informamos que Grok superó a todos los demás LLM, incluido Claude 2 de Anthropic, con la excepción de GPT-4 de OpenAI en un examen de matemáticas retenido, obteniendo una puntuación total del 59 por ciento frente al 68 por ciento de GPT-4. Esto sugiere que el modelo de IA no es simplemente un derivado del GPT LLM de OpenAI.
La mayoría de los LLMS de código abierto responden como si fuera chatGPT y se identifican como chatGPT, principalmente porque sus salidas GPT entrenadas (para ellos es una forma sencilla de obtener muchos datos de conversación). Elon probablemente hizo lo mismo para obtener más datos de entrenamiento.
– Dharis (@Dharisssss) 9 de diciembre de 2023
En consecuencia, la explicación más probable para este comportamiento es que aparentemente Grok ha sido entrenado extensamente en las respuestas de GPT. Por lo tanto, en lugar de formular una respuesta única haciendo referencia a las políticas de xAI sobre códigos maliciosos, el LLM simplemente regurgitó la postura de OpenAI. Esto también demuestra que la generación actual de modelos de IA son simplemente iteraciones glorificadas de una habitación china: un experimento mental que postula que los modelos de IA realmente no entienden el lenguaje ni el pensamiento.
Actualización: el cofundador de xAI responde
El problema aquí es que la web está llena de resultados de ChatGPT, por lo que accidentalmente detectamos algunos de ellos cuando entrenamos a Grok con una gran cantidad de datos web. Esto fue una gran sorpresa para nosotros cuando lo notamos por primera vez. Por si sirve de algo, el problema es muy raro y ahora que lo sabemos…
— Ígor Babuschkin (@ibab_ml) 9 de diciembre de 2023
Ahora tenemos una respuesta del cofundador de xAI, Igor Babuschkin. El empleado de alto rango de xAI admite que la capacitación de Grok incorporó accidentalmente algunos resultados de GPT.