{"id":516876,"date":"2023-03-15T14:24:04","date_gmt":"2023-03-15T14:24:04","guid":{"rendered":"https:\/\/magazineoffice.com\/el-nuevo-gpt-4-de-openai-puede-comprender-entradas-de-texto-e-imagenes\/"},"modified":"2023-03-15T14:24:06","modified_gmt":"2023-03-15T14:24:06","slug":"el-nuevo-gpt-4-de-openai-puede-comprender-entradas-de-texto-e-imagenes","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/el-nuevo-gpt-4-de-openai-puede-comprender-entradas-de-texto-e-imagenes\/","title":{"rendered":"El nuevo GPT-4 de OpenAI puede comprender entradas de texto e im\u00e1genes"},"content":{"rendered":"
\n<\/p>\n
Inmediatamente despu\u00e9s del anuncio del martes de Workspace AI de Google, y antes del evento Microsoft Future of Work del jueves, OpenAI ha lanzado la \u00faltima versi\u00f3n de su sistema de transformador preentrenado generativo, GPT-4. Mientras que la generaci\u00f3n actual GPT-3.5, que impulsa el popular bot conversacional ChatGPT de OpenAI, solo puede leer y responder con texto, el nuevo y mejorado GPT-4 tambi\u00e9n podr\u00e1 generar texto en las im\u00e1genes de entrada. \u00abSi bien es menos capaz que los humanos en muchos escenarios del mundo real\u00bb, escribi\u00f3 el equipo de OpenAI el martes, \u00abexhibe un desempe\u00f1o a nivel humano en varios puntos de referencia acad\u00e9micos y profesionales\u00bb.<\/p>\n
OpenAI, que se asoci\u00f3 (y recientemente renov\u00f3 sus votos) con Microsoft para desarrollar las capacidades de GPT, pas\u00f3 los \u00faltimos seis meses reajustando y refinando el rendimiento del sistema en funci\u00f3n de los comentarios de los usuarios generados por el reciente alboroto de ChatGPT. la compa\u00f1\u00eda informa que GPT-4 aprob\u00f3 ex\u00e1menes simulados (como Uniform Bar, LSAT, GRE y varias pruebas AP) con una puntuaci\u00f3n \u00abalrededor del 10 por ciento superior de los examinados\u00bb en comparaci\u00f3n con GPT-3.5 que obtuvo una puntuaci\u00f3n entre los 10 inferiores. por ciento. Adem\u00e1s, el nuevo GPT ha superado a otros modelos de lenguaje extenso (LLM) de \u00faltima generaci\u00f3n en una variedad de pruebas comparativas. La compa\u00f1\u00eda tambi\u00e9n afirma que el nuevo sistema ha logrado un rendimiento r\u00e9cord en \u00abobjetividad, capacidad de direcci\u00f3n y rechazo a salirse de las barandillas\u00bb en comparaci\u00f3n con su predecesor.<\/p>\n
<\/p>\n OpenAI dice que el GPT-4 estar\u00e1 disponible tanto para ChatGPT como para la API. Deber\u00e1 ser suscriptor de ChatGPT Plus para obtener acceso, y tenga en cuenta que tambi\u00e9n habr\u00e1 un l\u00edmite de uso para jugar con el nuevo modelo. El acceso a la API para el nuevo modelo se gestiona a trav\u00e9s de una lista de espera. \u00abGPT-4 es m\u00e1s confiable, creativo y capaz de manejar instrucciones mucho m\u00e1s matizadas que GPT-3.5\u00bb, escribi\u00f3 el equipo de OpenAI.