{"id":1102326,"date":"2024-04-23T20:44:43","date_gmt":"2024-04-23T20:44:43","guid":{"rendered":"https:\/\/magazineoffice.com\/he-aqui-por-que-es-mucho-mas-probable-que-openai-lance-gpt-4-5-este-ano-en-lugar-de-gpt-5\/"},"modified":"2024-04-23T20:44:46","modified_gmt":"2024-04-23T20:44:46","slug":"he-aqui-por-que-es-mucho-mas-probable-que-openai-lance-gpt-4-5-este-ano-en-lugar-de-gpt-5","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/he-aqui-por-que-es-mucho-mas-probable-que-openai-lance-gpt-4-5-este-ano-en-lugar-de-gpt-5\/","title":{"rendered":"He aqu\u00ed por qu\u00e9 es mucho m\u00e1s probable que OpenAI lance GPT-4.5 este a\u00f1o en lugar de GPT-5"},"content":{"rendered":"


\n<\/p>\n

\n

\n

\t\t\t\t\tEsto no es un consejo de inversi\u00f3n. El autor no tiene posici\u00f3n en ninguna de las acciones mencionadas. Wccftech.com tiene una pol\u00edtica de divulgaci\u00f3n y \u00e9tica.\n\t\t\t\t<\/p>\n

Aunque GPT-4 se encuentra actualmente en la c\u00faspide del mundo cada vez m\u00e1s complicado de la inteligencia artificial generativa, sus competidores, incluidos Claude de Anthropic y Llama de c\u00f3digo abierto de Meta, siguen mejorando, lo que requiere otra iteraci\u00f3n del modelo de lenguaje grande (LLM) emblem\u00e1tico de OpenAI. Si bien muchos esperan que la organizaci\u00f3n sin fines de lucro de Sam Altman lance GPT-5 en 2024, algunos analistas ahora afirman que esas expectativas siguen siendo inveros\u00edmiles, especialmente dada la escala de recursos necesarios.<\/p>\n

GPT-5 necesitar\u00eda alrededor de ~100 veces los recursos computacionales de GPT-4, o 3 meses de ~1 mill\u00f3n de H100<\/h2>\n
\n

No parece probable que GPT-5 se lance este a\u00f1o.
Desde GPT-1, la diferencia entre GPT-n y GPT-n+0,5 es ~10x en c\u00e1lculo.
Eso significar\u00eda que GPT-5 tendr\u00eda alrededor de ~100 veces el c\u00e1lculo de GPT-4, o 3 meses de ~1 mill\u00f3n de H100.
Dudo que OpenAI tenga listo un servidor de 1 mill\u00f3n de GPU. https:\/\/t.co\/asJWNLkO23<\/p>\n

\u2014Dan Hendrycks (@DanHendrycks) 22 de abril de 2024<\/a><\/p>\n<\/blockquote>\n

Seg\u00fan Dan Hendrycks, director del Centro para la Seguridad de la IA, cada iteraci\u00f3n incremental del GPT LLM de OpenAI ha requerido un aumento de 10 veces en los recursos computacionales. En consecuencia, si OpenAI se saltara GPT-4.5 y saltara directamente a GPT-5, se traducir\u00eda en un aumento de alrededor de 100 veces en los requisitos computacionales en relaci\u00f3n con GPT-4, equivalente a alrededor de 1 mill\u00f3n de chips H100 funcionando durante tres meses consecutivos.<\/p>\n

\n

Sam dijo que lanzar\u00e1n un modelo incre\u00edble este a\u00f1o, pero no sabe c\u00f3mo se llamar\u00e1. Dar\u00edo dijo que los que se est\u00e1n entrenando ahora son carreras de mil millones de d\u00f3lares. Lo que se alinear\u00eda con el hecho de que GPT-4.5 es 10 veces m\u00e1s inform\u00e1tico que GPT-4.https:\/\/t.co\/Nyvv3j2uri<\/p>\n

– MachDiamantes (@ andromeda74356) 22 de abril de 2024<\/a><\/p>\n<\/blockquote>\n

Esta tesis est\u00e1 respaldada por los comentarios del CEO de Anthropic, Dario Amodei, quien recientemente se\u00f1al\u00f3 que actualmente cuesta alrededor de mil millones de d\u00f3lares formar un LLM de \u00faltima generaci\u00f3n, y se espera que este costo se dispare a entre 5 mil millones y 10 mil millones de d\u00f3lares en 2025\/26. Fundamentalmente, mil millones de d\u00f3lares en costos de capacitaci\u00f3n se alinean con el aumento de 10 veces en los recursos computacionales que se puede inferir razonablemente para GPT-4.5.<\/p>\n

Recientemente observamos que se espera que las unidades H100 de NVIDIA implementadas este a\u00f1o consuman alrededor de 13.000 GWh de electricidad al a\u00f1o, equivalente al consumo anual de electricidad de pa\u00edses como Lituania y Guatemala. \u00a1Para 2027, se espera que el consumo global de energ\u00eda de los centros de datos se dispare a entre 85 y 134 TWh (teravatios-hora)!<\/p>\n

\n

Llama3-70B se ha asentado en el puesto 5. Con el 405B a\u00fan por llegar…<\/p>\n

Recuerdo que cuando se lanz\u00f3 GPT-4 en marzo de 2023, parec\u00eda casi imposible alcanzar el mismo rendimiento.<\/p>\n

Desde entonces he visto @Ahmad_Al_Dahle<\/a> y el resto de la organizaci\u00f3n GenAI en un ca\u00f3tico ascenso hacia el enfoque,\u2026 https:\/\/t.co\/xUMHhW8sIX<\/p>\n

– Soumith Chintala (@soumithchintala) 22 de abril de 2024<\/a><\/p>\n<\/blockquote>\n

Por supuesto, la competencia de GPT-4 se est\u00e1 poniendo al d\u00eda r\u00e1pidamente. No busque m\u00e1s, Llama 3 LLM de Meta (70 mil millones de par\u00e1metros), que ahora ocupa el quinto lugar en la tabla de liderazgo de Arena. Fundamentalmente, Llama 3 ahora est\u00e1 superando a todos los dem\u00e1s LLM de c\u00f3digo abierto, y eso en ausencia del pr\u00f3ximo modelo de 405 mil millones de par\u00e1metros.<\/p>\n

\n

Sospecho que GPT-5 se retrasar\u00e1 m\u00e1s que por la falta de recursos de GPU. Es la comprensi\u00f3n, despu\u00e9s del lanzamiento de GPT-4, de la necesidad de cambiar el plan de estudios original. Ingerir conversaciones humanas mal seleccionadas y un plan de estudios de capacitaci\u00f3n ingenuo eran frutos al alcance de la mano. La mayor\u00eda de los dem\u00e1s… https:\/\/t.co\/7QO7Zykk2e<\/p>\n

\u2014 Carlos E. P\u00e9rez (@IntuitMachine) 22 de abril de 2024<\/a><\/p>\n<\/blockquote>\n

Es m\u00e1s, algunos expertos ahora creen que para GPT-5, OpenAI tendr\u00e1 que cambiar el \u00abplan de estudios original\u00bb, que actualmente implica aprovechar \u00abconversaciones humanas mal seleccionadas\u00bb y un proceso de capacitaci\u00f3n \u00abingenuo\u00bb general. Esto se suma a nuestra tesis original de que es probable que OpenAI lance un modelo GPT-4.5 iterativo este a\u00f1o en lugar de cambiar completamente lo que est\u00e1 en juego con GPT-5.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n