{"id":924167,"date":"2023-12-12T18:09:37","date_gmt":"2023-12-12T18:09:37","guid":{"rendered":"https:\/\/magazineoffice.com\/una-prueba-estadisticamente-significativa-demuestra-que-el-gpt-4-turbo-de-openai-es-particularmente-perezoso-durante-las-vacaciones-de-invierno\/"},"modified":"2023-12-12T18:09:40","modified_gmt":"2023-12-12T18:09:40","slug":"una-prueba-estadisticamente-significativa-demuestra-que-el-gpt-4-turbo-de-openai-es-particularmente-perezoso-durante-las-vacaciones-de-invierno","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/una-prueba-estadisticamente-significativa-demuestra-que-el-gpt-4-turbo-de-openai-es-particularmente-perezoso-durante-las-vacaciones-de-invierno\/","title":{"rendered":"Una prueba estad\u00edsticamente significativa demuestra que el GPT-4 Turbo de OpenAI es particularmente perezoso durante las vacaciones de invierno"},"content":{"rendered":"


\n<\/p>\n

\n

\n

\t\t\t\t\tEsto no es un consejo de inversi\u00f3n. El autor no tiene posici\u00f3n en ninguna de las acciones mencionadas. Wccftech.com tiene una pol\u00edtica de divulgaci\u00f3n y \u00e9tica.\n\t\t\t\t<\/p>\n

No le pidas al modelo de lenguaje grande (LLM) m\u00e1s avanzado de OpenAI, el GPT-4 Turbo, que realice tareas exhaustivas durante las vacaciones de invierno. \u00c9sa es la conclusi\u00f3n que uno puede sacar c\u00f3modamente de una prueba reciente estad\u00edsticamente significativa realizada por un entusiasta del LLM.<\/p>\n

OpenAI afirma que GPT-4 Turbo es capaz de manejar tareas muy complicadas en un solo mensaje, cortes\u00eda de su formaci\u00f3n mucho m\u00e1s exhaustiva. El modelo tambi\u00e9n es capaz de procesar 128.000 tokens gracias a su ventana de contexto de token ampliada, una medida de la riqueza o profundidad de la entrada y salida de un LLM en particular. Como recordatorio, 1000 tokens equivalen aproximadamente a 750 palabras. Esto significa que la \u00faltima oferta de OpenAI es capaz de procesar una entrada de alrededor de 96.000 palabras.<\/p>\n

\n

@ChatGPTapp<\/a> @OpenAI<\/a> @tszzl<\/a> @emollick<\/a> @voooooogel<\/a> Resultado salvaje. gpt-4-turbo sobre la API produce finalizaciones m\u00e1s cortas (estad\u00edsticamente significativas) cuando \u00abpiensa\u00bb en diciembre frente a cuando piensa en mayo (seg\u00fan lo determinado por la fecha en el mensaje del sistema).<\/p>\n

Tom\u00e9 exactamente el mismo mensaje… pic.twitter.com\/mA7sqZUA0r<\/a><\/p>\n

-Rob Lynch (@RobLynch99) 11 de diciembre de 2023<\/a><\/p>\n<\/blockquote>\n

Recientemente, Rob Lynch, un entusiasta del LLM, puso a prueba el GPT-4 Turbo a su ritmo proverbial. Para su total sorpresa, el LLM produce una respuesta m\u00e1s corta cuando piensa que el mes actual es diciembre en comparaci\u00f3n con cuando se le pide que crea que es mayo.<\/p>\n

Espec\u00edficamente, Lynch pudo obtener una producci\u00f3n promedio de 4298 tokens en 477 pruebas de GPT-4 Turbo cuando se le hizo creer que el mes actual era mayo. Para diciembre, el LLM arroj\u00f3 una producci\u00f3n media significativamente m\u00e1s corta de 4.086 tokens, lo que equivale a una disminuci\u00f3n de la productividad de alrededor del 5 por ciento.<\/p>\n

\n

Dios m\u00edo, \u00bfla hip\u00f3tesis de las vacaciones de invierno de la IA puede ser cierta?<\/p>\n

Hubo algunas especulaciones in\u00fatiles de que GPT-4 podr\u00eda tener un peor desempe\u00f1o en diciembre porque \u00abaprendi\u00f3\u00bb a trabajar menos durante las vacaciones.<\/p>\n

Aqu\u00ed hay una prueba estad\u00edsticamente significativa que muestra que esto puede ser cierto. Los LLM son raros. https:\/\/t.co\/mtCY3lmLFF<\/p>\n

– Ethan Mollick (@emollick) 11 de diciembre de 2023<\/a><\/p>\n<\/blockquote>\n

Si bien arroja luz sobre la causa probable detr\u00e1s de esta discrepancia, Ethan Mollick, profesor de Wharton, cree que el GPT-4 Turbo aprendi\u00f3 de la tendencia humana a trabajar menos en diciembre, cuando hay muchas vacaciones. Esto tambi\u00e9n sugiere que estos LLM, a pesar de los esfuerzos exhaustivos para prevenir la incursi\u00f3n de prejuicios humanos da\u00f1inos, a\u00fan siguen siendo susceptibles de heredar algunas de las deficiencias humanas m\u00e1s extravagantes, cortes\u00eda de la infiltraci\u00f3n de datos de capacitaci\u00f3n.<\/p>\n

Este desarrollo viene inmediatamente despu\u00e9s de otro que suger\u00eda que el modelo GPT de OpenAI se estaba volviendo progresivamente m\u00e1s vago, recurriendo a atajos en lugar de dar respuestas completas a las consultas. \u00a1Algunas an\u00e9cdotas sugieren que los usuarios han estado fingiendo estar discapacitados para obtener respuestas completas del LLM! La situaci\u00f3n aparentemente es lo suficientemente grave como para inmediato<\/a> OpenAI para intentar encontrar una revisi\u00f3n.<\/p>\n

\n

\t\t\t\tComparte esta historia<\/p>\n

<\/svg> Facebook<\/p>\n

<\/svg> Gorjeo<\/p>\n<\/p><\/div>\n<\/p><\/div>\n