GPT4 – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Wed, 08 May 2024 13:19:04 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 DesktopGPT lleva GPT-3.5 Turbo, GPT-4 y GPT-4 Turbo al patio trasero de Windows 11, lo que potencialmente le da a Copilot AI de Microsoft una oportunidad por su dinero como la mejor alternativa. https://magazineoffice.com/desktopgpt-lleva-gpt-3-5-turbo-gpt-4-y-gpt-4-turbo-al-patio-trasero-de-windows-11-lo-que-potencialmente-le-da-a-copilot-ai-de-microsoft-una-oportunidad-por-su-dinero-como-la-mejor-alternativa/ https://magazineoffice.com/desktopgpt-lleva-gpt-3-5-turbo-gpt-4-y-gpt-4-turbo-al-patio-trasero-de-windows-11-lo-que-potencialmente-le-da-a-copilot-ai-de-microsoft-una-oportunidad-por-su-dinero-como-la-mejor-alternativa/#respond Wed, 08 May 2024 13:19:01 +0000 https://magazineoffice.com/desktopgpt-lleva-gpt-3-5-turbo-gpt-4-y-gpt-4-turbo-al-patio-trasero-de-windows-11-lo-que-potencialmente-le-da-a-copilot-ai-de-microsoft-una-oportunidad-por-su-dinero-como-la-mejor-alternativa/

Lo que necesitas saber

  • Stardock ha presentado una nueva aplicación de escritorio de IA denominada DesktopGPT.
  • Se envía con acceso a varios modelos, incluidos GPT-3.5 Turbo, GPT-4 y GPT-4 Turbo.
  • DesktopGPT proporciona plantillas interesantes diseñadas para ayudar a los principiantes en los espacios de IA a interactuar fácilmente con los LLM.

Una nueva aplicación impulsada por IA en el bloque que podría competir con Copilot AI de Microsoft para Windows. Stardock, conocido por sus mejores aplicaciones alternativas a Windows 11 como Start11, WindowsBlinds 11 recientemente presentado DesktopGPT exclusivamente en su suite de productividad y personalización para Windows, Object Desktop.

Según Stardock, DesktopGPT «trae los últimos modelos de IA a Windows 10/11 para interacciones rápidas y potentes indicaciones con plantillas». La aplicación impulsada por IA incluye muchas funciones sofisticadas, lo que facilita la interacción con múltiples modelos de lenguaje grandes (LLM) directamente desde su teclado.





Source link-40

]]>
https://magazineoffice.com/desktopgpt-lleva-gpt-3-5-turbo-gpt-4-y-gpt-4-turbo-al-patio-trasero-de-windows-11-lo-que-potencialmente-le-da-a-copilot-ai-de-microsoft-una-oportunidad-por-su-dinero-como-la-mejor-alternativa/feed/ 0
El director ejecutivo de OpenAI, Sam Altman, promete «con un alto grado de certeza científica» que GPT-5 será más inteligente que el «ligeramente vergonzoso en el mejor de los casos» GPT-4 https://magazineoffice.com/el-director-ejecutivo-de-openai-sam-altman-promete-con-un-alto-grado-de-certeza-cientifica-que-gpt-5-sera-mas-inteligente-que-el-ligeramente-vergonzoso-en-el-mejor-de-los-casos-gpt-4/ https://magazineoffice.com/el-director-ejecutivo-de-openai-sam-altman-promete-con-un-alto-grado-de-certeza-cientifica-que-gpt-5-sera-mas-inteligente-que-el-ligeramente-vergonzoso-en-el-mejor-de-los-casos-gpt-4/#respond Fri, 03 May 2024 10:41:01 +0000 https://magazineoffice.com/el-director-ejecutivo-de-openai-sam-altman-promete-con-un-alto-grado-de-certeza-cientifica-que-gpt-5-sera-mas-inteligente-que-el-ligeramente-vergonzoso-en-el-mejor-de-los-casos-gpt-4/

Lo que necesitas saber

  • El director ejecutivo de OpenAI, Sam Altman, dice que ChatGPT es lo más tonto que jamás haya sido en este momento.
  • Promete un mejor rendimiento y precisión con el tan esperado modelo GPT-5.
  • Altman había indicado previamente que el modelo GPT-4 de OpenAI «apesta».

El director ejecutivo de OpenAI, Sam Altman, estuvo en la Universidad de Stanford a principios de esta semana, donde tuvo una larga discusión sobre su visión de la empresa y los avances futuros en IA (a través de La guía de Tom). Como sabrás, Altman ha sido defendiendo el ritmo de superinteligencia AGI por un minuto caluroso ahora.

Se necesita un brazo y una pierna para mantener a diario un chatbot potenciado por IA como ChatGPT. El año pasado, supimos que OpenAI gasta hasta 700.000 dólares al día para mantener en funcionamiento sus operaciones ChatGPT. Curiosamente, el costo que implica mantener estas operaciones a flote no parece ser una preocupación importante para Altman. En cambio, está más centrado en proporcionar a los usuarios herramientas capaces que faciliten el trabajo y les permitan lograr hazañas increíbles.

Un ChatGPT que es «realmente bueno, materialmente mejor»

(Crédito de la imagen: futuro)

Mientras hablaba sobre ChatGPT, Altman dijo audazmente: «GPT-4 es el modelo más tonto que cualquiera de ustedes tendrá que usar nuevamente». No es la primera vez que el CEO hace un comentario así sobre el modelo. Él admitió GPT-4 «un poco apesta» mientras circulan rumores que indican que OpenAI está trabajando en un nuevo modelo, potencialmente GPT-5, que se espera que sea «realmente bueno, materialmente mejor.»





Source link-40

]]>
https://magazineoffice.com/el-director-ejecutivo-de-openai-sam-altman-promete-con-un-alto-grado-de-certeza-cientifica-que-gpt-5-sera-mas-inteligente-que-el-ligeramente-vergonzoso-en-el-mejor-de-los-casos-gpt-4/feed/ 0
GPT-4 tuvo un rendimiento cercano al nivel de los médicos expertos en evaluaciones oculares https://magazineoffice.com/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares/ https://magazineoffice.com/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares/#respond Fri, 19 Apr 2024 22:20:09 +0000 https://magazineoffice.com/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares/

A medida que los modelos de aprendizaje de idiomas (LLM) continúan avanzando, también lo hacen las preguntas sobre cómo pueden beneficiar a la sociedad en áreas como el campo médico. Un estudio reciente de la Facultad de Medicina Clínica de la Universidad de Cambridge encontró que el GPT-4 de OpenAI funcionó casi tan bien en una evaluación oftalmológica como los expertos en el campo, el Tiempos financieros reportado por primera vez.

En el estudio, publicado en Más salud digital, los investigadores probaron el LLM, su predecesor GPT-3.5, el PaLM 2 de Google y el LLaMA de Meta con 87 preguntas de opción múltiple. Cinco oftalmólogos expertos, tres oftalmólogos en formación y dos médicos jóvenes no especializados recibieron el mismo examen simulado. Las preguntas surgieron de un libro de texto para realizar pruebas a los alumnos sobre todo, desde la sensibilidad a la luz hasta las lesiones. Los contenidos no están disponibles públicamente, por lo que los investigadores creen que los LLM no podrían haber sido capacitados en ellos previamente. ChatGPT, equipado con GPT-4 o GPT-3.5, tuvo tres oportunidades de responder definitivamente o su respuesta se marcó como nula.

GPT-4 obtuvo una puntuación más alta que los estudiantes y los médicos jóvenes, respondiendo correctamente 60 de las 87 preguntas. Si bien esto fue significativamente más alto que el promedio de 37 respuestas correctas de los médicos jóvenes, apenas superó el promedio de 59,7 de los tres estudiantes. Mientras que un oftalmólogo experto solo respondió con precisión 56 preguntas, los cinco obtuvieron una puntuación promedio de 66,4 respuestas correctas, superando a la máquina. PaLM 2 obtuvo una puntuación de 49 y GPT-3.5 obtuvo una puntuación de 42. LLaMa obtuvo la puntuación más baja con 28, quedando por debajo de los médicos jóvenes. En particular, estos ensayos se produjeron a mediados de 2023.

Si bien estos resultados tienen beneficios potenciales, también existen bastantes riesgos y preocupaciones. Los investigadores notaron que el estudio ofrecía una cantidad limitada de preguntas, especialmente en ciertas categorías, lo que significa que los resultados reales podrían variar. Los LLM también tienen tendencia a «alucinar» o inventar cosas. Eso es una cosa si es un hecho irrelevante, pero afirmar que hay cataratas o cáncer es otra historia. Como ocurre en muchos casos de uso de LLM, los sistemas también carecen de matices, lo que crea más oportunidades de inexactitud.



Source link-47

]]>
https://magazineoffice.com/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares/feed/ 0
OpenAI abre un centro en Tokio y agrega el modelo GPT-4 optimizado para japonés https://magazineoffice.com/openai-abre-un-centro-en-tokio-y-agrega-el-modelo-gpt-4-optimizado-para-japones/ https://magazineoffice.com/openai-abre-un-centro-en-tokio-y-agrega-el-modelo-gpt-4-optimizado-para-japones/#respond Mon, 15 Apr 2024 14:33:02 +0000 https://magazineoffice.com/openai-abre-un-centro-en-tokio-y-agrega-el-modelo-gpt-4-optimizado-para-japones/

OpenAI se está expandiendo a Japón con la apertura de una nueva oficina en Tokio y planes para un modelo GPT-4 optimizado específicamente para el idioma japonés.

La medida es importante por varias razones. Subraya la oportunidad que ve la empresa para cortejar negocios en el país y destaca cómo OpenAI probablemente necesitará localizar su tecnología en diferentes idiomas a medida que se expanda. Y, de manera más pragmática, a medida que los gobiernos, sus reguladores y el discurso público en general se centran más en los pros y los contras de la IA, tener los pies en el terreno se vuelve importante para que OpenAI comprenda e influya en esas corrientes a su favor.

OpenAI tiene un gran reconocimiento de nombre, pero no estará exento de competidores. SoftBank también espera construir y capitalizar la actual moda empresarial por la IA con el lanzamiento en noviembre pasado de SB Intuitions, cuyo objetivo es construir grandes modelos de lenguaje (LLM) y servicios generativos de IA de forma nativa en japonés.

El fabricante de ChatGPT, respaldado por Microsoft, tiene sólo 1.200 empleados en todo el mundo, una cifra pequeña si se tiene en cuenta que actualmente está valorado en unos 80.000 millones de dólares y está tratando de gestionar una gran cantidad de intereses entrantes. Ahora se está analizando detenidamente cómo escalar para satisfacer esa demanda. Abrió su primera oficina internacional en Londres el año pasado, seguida de su oficina inaugural de la Unión Europea (UE) en Dublín unos meses después. Tokio representará la primera oficina de OpenAI en Asia y la cuarta a nivel mundial (incluida su sede en San Francisco).

El director ejecutivo Sam Altman ha destacado la “rica historia de Japón de personas y tecnología que se unen para hacer más” entre sus razones para establecer una presencia formal en la región. Pero de manera más oportunista, los esfuerzos de expansión global de OpenAI hasta ahora han sido bastante estratégicos.

El Reino Unido es un importante centro para el talento en IA, mientras que la UE impulsa actualmente la agenda regulatoria de la IA. Japón ha sido uno de los mayores desarrolladores y adoptantes de robots humanoides y otro hardware impulsado por IA, y ocupó un lugar destacado durante la gira mundial de Altman el año pasado, cuando visitó al primer ministro japonés, Fumio Kishida, y habló sobre la intención de OpenAI de abrir una oficina en el país. Japón es el actual presidente del G7 y presidente del Proceso de IA de Hiroshima del G7, una iniciativa para promover la seguridad de la IA, incluida una gobernanza más sólida de la IA.

La elección de OpenAI para liderar el nuevo centro es notable. OpenAI Japón estará dirigida por Tadao Nagasaki, quien se une a la compañía después de 12 años en Amazon Web Services (AWS), donde dirigió la división de computación en la nube de Amazon en la región. En otras palabras, hacer crecer el perfil de OpenAI y sus negocios con las empresas es el objetivo principal de esta última expansión.

Emprendedor

Como presidente de OpenAI Japón, Nagasaki tendrá la tarea de formar un equipo local sobre el terreno para duplicar los negocios de OpenAI en el país. La compañía ya cuenta con Daikin (una empresa industrial mejor conocida por sus aires acondicionados), Rakuten y Toyota entre los clientes que utilizan la versión empresarial de ChatGPT de OpenAI, que según OpenAI incluye opciones adicionales de privacidad, análisis de datos y personalización además del consumidor estándar. -ChatGPT de grado.

OpenAI dice que los gobiernos locales también están utilizando ChatGPT para «mejorar la eficiencia de los servicios públicos en Japón».

GPT-4 personalizado para japonés

GPT-4 personalizado para japonés Créditos de imagen: OpenAI

ChatGPT domina desde hace mucho varios idiomas, incluido el japonés. Pero optimizar la última versión del GPT LLM subyacente específicamente para japonés le brindará una mejor comprensión de los matices del idioma japonés, incluida la comprensión cultural, lo que debería hacerlo más efectivo, particularmente en entornos comerciales como el servicio al cliente y la creación de contenido.

OpenAI también dice que su modelo personalizado viene con un rendimiento mejorado, lo que significa que debería funcionar más rápido y ser más rentable que su predecesor.

Por ahora, OpenAI está brindando acceso temprano al modelo personalizado GPT-4 a algunas empresas locales, y el acceso se abre gradualmente a través de la API de OpenAI «.en los próximos meses.»



Source link-48

]]>
https://magazineoffice.com/openai-abre-un-centro-en-tokio-y-agrega-el-modelo-gpt-4-optimizado-para-japones/feed/ 0
Los usuarios pagos de ChatGPT ahora pueden acceder a GPT-4 Turbo https://magazineoffice.com/los-usuarios-pagos-de-chatgpt-ahora-pueden-acceder-a-gpt-4-turbo/ https://magazineoffice.com/los-usuarios-pagos-de-chatgpt-ahora-pueden-acceder-a-gpt-4-turbo/#respond Sun, 14 Apr 2024 14:17:50 +0000 https://magazineoffice.com/los-usuarios-pagos-de-chatgpt-ahora-pueden-acceder-a-gpt-4-turbo/

OpenAI ha traído el nuevo GPT-4 Turbo a los usuarios pagos de ChatGPT. El La compañía anunció la noticia en X. (anteriormente Twitter), compartiendo que su modelo de lenguaje grande ha mejorado las habilidades matemáticas, de razonamiento lógico, de codificación y de escritura. En referencia a esto último, una respuesta a su publicación inicial afirma que «al escribir con ChatGPT, las respuestas serán más directas, menos detalladas y utilizarán un lenguaje más conversacional». En particular, en diciembre, Microsoft integró GPT-4 Turbo con su chatbot CoPilot AI y su generador de imágenes DALL-E 3.

Cuando OpenAI anunció GPT-4 Turbo en noviembre, destacó importantes actualizaciones del sistema que impulsa ChatGPT. En ese momento, OpenAI afirmó que GPT-4 Turbo podría recibir seis veces más páginas de texto: 300, en comparación con las 50 anteriores. Dada la amplitud de la información proporcionada, esta expansión podría significar indicaciones y respuestas más complejas. El modelo de lenguaje grande también puede crear subtítulos o descripciones de mensajes de imágenes y manejar solicitudes de conversión de texto a voz.

GPT-4 Turbo incluso ha avanzado desde su anuncio inicial. OpenAI había aumentado inicialmente su conocimiento mundial hasta abril de 2023, un buen salto desde el límite de septiembre de 2021 de GPT-4. Ahora, GPT-4 Turbo tiene información hasta diciembre de 2023.





Source link-47

]]>
https://magazineoffice.com/los-usuarios-pagos-de-chatgpt-ahora-pueden-acceder-a-gpt-4-turbo/feed/ 0
OpenAI transcribió más de un millón de horas de videos de YouTube para entrenar GPT-4 https://magazineoffice.com/openai-transcribio-mas-de-un-millon-de-horas-de-videos-de-youtube-para-entrenar-gpt-4/ https://magazineoffice.com/openai-transcribio-mas-de-un-millon-de-horas-de-videos-de-youtube-para-entrenar-gpt-4/#respond Sat, 06 Apr 2024 20:44:55 +0000 https://magazineoffice.com/openai-transcribio-mas-de-un-millon-de-horas-de-videos-de-youtube-para-entrenar-gpt-4/

A principios de esta semana, El Wall Street Diario reportado que las empresas de IA se estaban topando con un muro cuando se trata de recopilar datos de capacitación de alta calidad. Hoy, Los New York Times detallado algunas de las formas en que las empresas han abordado esto. Como era de esperar, implica hacer cosas que caen en la nebulosa zona gris de Ley de derechos de autor de IA.

La historia comienza con OpenAI que, desesperado por obtener datos de entrenamiento, supuestamente desarrolló su Modelo de transcripción de audio Whisper para superar el obstáculo, transcribiendo más de un millón de horas de videos de YouTube para entrenar GPT-4, su modelo de lenguaje grande más avanzado. Eso es de acuerdo a Los New York Times, que informa que la empresa sabía que esto era legalmente cuestionable pero creía que era un uso legítimo. El presidente de OpenAI, Greg Brockman, participó personalmente en la recopilación de videos que se utilizaron, el Veces escribe.

La portavoz de OpenAI, Lindsay Held, dijo El borde en un correo electrónico que la empresa selecciona conjuntos de datos «únicos» para cada uno de sus modelos para «ayudar a su comprensión del mundo» y mantener su competitividad en investigación global. Held añadió que la empresa utiliza «numerosas fuentes, incluidos datos disponibles públicamente y asociaciones para obtener datos no públicos», y que está estudiando la posibilidad de generar sus propios datos sintéticos.

El Veces El artículo dice que la compañía agotó los suministros de datos útiles en 2021 y discutió la transcripción de videos, podcasts y audiolibros de YouTube después de analizar otros recursos. Para entonces, había entrenado sus modelos con datos que incluían código informático de Github, bases de datos de movimientos de ajedrez y contenido de tareas escolares de Quizlet.

El portavoz de Google, Matt Bryant, dijo El borde En un correo electrónico, la empresa «vio informes no confirmados» sobre la actividad de OpenAI y agregó que «tanto nuestros archivos robots.txt como nuestros Términos de servicio prohíben la extracción o descarga no autorizada de contenido de YouTube», haciéndose eco de la condiciones de uso de la empresa. Neal Mohan, director ejecutivo de YouTube dijo cosas similares sobre la posibilidad de que OpenAI haya utilizado YouTube para entrenar su modelo de generación de vídeos Sora esta semana. Bryant dijo que Google toma «medidas técnicas y legales» para evitar dicho uso no autorizado «cuando tenemos una base legal o técnica clara para hacerlo».

Google también recopiló transcripciones de YouTube, según el Veces’ fuentes. Bryant dijo que la compañía ha entrenado a sus modelos “en algunos contenidos de YouTube, de acuerdo con nuestros acuerdos con los creadores de YouTube”.

El Veces escribe que el departamento legal de Google pidió al equipo de privacidad de la compañía que modificara el lenguaje de su política para ampliar lo que podía hacer con los datos de los consumidores, como sus herramientas de oficina como Google Docs. Según se informa, la nueva política se publicó intencionalmente el 1 de julio para aprovechar la distracción del fin de semana festivo del Día de la Independencia.

Meta también chocó contra los límites de una buena disponibilidad de datos de entrenamiento, y en las grabaciones el Veces Como se escuchó, su equipo de IA discutió su uso no permitido de obras protegidas por derechos de autor mientras trabajaba para ponerse al día con OpenAI. La empresa, después de revisar “libros, ensayos, poemas y artículos de noticias en inglés casi disponibles en Internet”, aparentemente consideró tomar medidas como pagar las licencias de los libros o incluso comprar directamente una editorial importante. Aparentemente, también estaba limitado en la forma en que podía utilizar los datos de los consumidores debido a los cambios centrados en la privacidad que realizó a raíz de la Escándalo de Cambridge Analytica.

Google, OpenAI y el mundo del entrenamiento de IA en general están luchando con datos de entrenamiento que se evaporan rápidamente para sus modelos, que mejoran cuanto más datos absorben. El Diario escribió esta semana que las empresas pueden superar el contenido nuevo para 2028.

Posibles soluciones a ese problema mencionado por el Diario del lunes incluyen modelos de entrenamiento sobre datos «sintéticos» creados por sus propios modelos o el llamado «aprendizaje curricular», que implica alimentar a los modelos con datos de alta calidad de manera ordenada con la esperanza de que puedan utilizar para hacer «conexiones más inteligentes entre conceptos» usando mucha menos información, pero ninguno de los dos enfoques está probado todavía. Pero la otra opción de las empresas es utilizar todo lo que puedan encontrar, tengan permiso o no, y basándose en múltiple demandas archivado en el último año más o menos, esa manera es, digamos, más que un poco complicada.



Source link-37

]]>
https://magazineoffice.com/openai-transcribio-mas-de-un-millon-de-horas-de-videos-de-youtube-para-entrenar-gpt-4/feed/ 0
“El rey está muerto”: Claude 3 supera a GPT-4 en Chatbot Arena por primera vez https://magazineoffice.com/el-rey-esta-muerto-claude-3-supera-a-gpt-4-en-chatbot-arena-por-primera-vez/ https://magazineoffice.com/el-rey-esta-muerto-claude-3-supera-a-gpt-4-en-chatbot-arena-por-primera-vez/#respond Thu, 28 Mar 2024 12:54:00 +0000 https://magazineoffice.com/el-rey-esta-muerto-claude-3-supera-a-gpt-4-en-chatbot-arena-por-primera-vez/

El martes, el modelo de lenguaje grande (LLM) Claude 3 Opus de Anthropic superó al GPT-4 de OpenAI (que impulsa ChatGPT) por primera vez en Chatbot Arena, una popular tabla de clasificación de colaboración abierta utilizada por investigadores de IA para medir las capacidades relativas de los modelos de lenguaje de IA. «El rey está muerto», tuiteó el desarrollador de software Nick Dobos en una publicación que compara GPT-4 Turbo y Claude 3 Opus que ha estado circulando en las redes sociales. «RIP GPT-4».

Desde que GPT-4 se incluyó en Chatbot Arena alrededor del 10 de mayo de 2023 (la tabla de clasificación se lanzó el 3 de mayo de ese año), las variaciones de GPT-4 han estado constantemente en la parte superior de la tabla hasta ahora, por lo que su derrota en la Arena es una momento notable en la relativamente corta historia de los modelos de lenguaje de IA. Uno de los modelos más pequeños de Anthropic, Haiku, también ha llamado la atención con su desempeño en la clasificación.

«Por primera vez, los mejores modelos disponibles (Opus para tareas avanzadas, Haiku para costo y eficiencia) son de un proveedor que no es OpenAI», dijo a Ars Technica el investigador independiente de IA Simon Willison. «Eso es tranquilizador: todos nos beneficiamos de una diversidad de proveedores importantes en este espacio. Pero GPT-4 tiene más de un año en este momento, y le tomó ese año a alguien más ponerse al día».

Una captura de pantalla de la clasificación de LMSYS Chatbot Arena que muestra a Claude 3 Opus a la cabeza contra GPT-4 Turbo, actualizada el 26 de marzo de 2024.
Agrandar / Una captura de pantalla de la clasificación de LMSYS Chatbot Arena que muestra a Claude 3 Opus a la cabeza contra GPT-4 Turbo, actualizada el 26 de marzo de 2024.

Benj Edwards

Chatbot Arena está dirigido por Large Model Systems Organization (LMSYS ORG), una organización de investigación dedicada a modelos abiertos que opera como una colaboración entre estudiantes y profesores de la Universidad de California, Berkeley, UC San Diego y la Universidad Carnegie Mellon.

En diciembre describimos cómo funciona el sitio, pero en resumen, Chatbot Arena presenta a un usuario que visita el sitio web un cuadro de entrada de chat y dos ventanas que muestran el resultado de dos LLM sin etiquetar. La tarea del usuario es calificar qué resultado es mejor en función de cualquier criterio que el usuario considere más adecuado. A través de miles de estas comparaciones subjetivas, Chatbot Arena calcula los «mejores» modelos en conjunto y completa la tabla de clasificación, actualizándola con el tiempo.

Arena Chatbot es importante para los investigadores porque a menudo se sienten frustrados al tratar de medir el rendimiento de los chatbots de IA, cuyos resultados tan variables son difíciles de cuantificar. De hecho, escribimos sobre lo notoriamente difícil que es comparar objetivamente los LLM en nuestra noticia sobre el lanzamiento de Claude 3. Para esa historia, Willison enfatizó el importante papel de las «vibraciones» o sentimientos subjetivos, a la hora de determinar la calidad de un LLM. «Otro caso más de ‘vibraciones’ como concepto clave en la IA moderna», dijo.

Una captura de pantalla de Chatbot Arena el 27 de marzo de 2024 que muestra el resultado de dos LLM aleatorios a los que se les solicitó: "¿El color se llamaría 'magenta' si la ciudad de Magenta no existiera?"
Agrandar / Una captura de pantalla de Chatbot Arena el 27 de marzo de 2024 que muestra el resultado de dos LLM aleatorios a los que se les preguntó: «¿El color se llamaría ‘magenta’ si la ciudad de Magenta no existiera?»

Benj Edwards

El sentimiento de «vibraciones» es común en el espacio de la IA, donde los proveedores frecuentemente seleccionan puntos de referencia numéricos que miden el conocimiento o la capacidad para tomar exámenes para que sus resultados parezcan más favorables. «Acabo de tener una larga sesión de codificación con Claude 3 opus y hombre, aplasta absolutamente a gpt-4. No creo que los puntos de referencia estándar le hagan justicia a este modelo», tuiteó el desarrollador de software de inteligencia artificial Anton Bacaj el 19 de marzo.

El ascenso de Claude puede hacer reflexionar a OpenAI, pero como mencionó Willison, la familia GPT-4 en sí (aunque actualizada varias veces) tiene más de un año. Actualmente, Arena enumera cuatro versiones diferentes de GPT-4, que representan actualizaciones incrementales del LLM que se congelan en el tiempo porque cada una tiene un estilo de salida único, y algunos desarrolladores que las usan con la API de OpenAI necesitan coherencia para que sus aplicaciones creadas sobre Las salidas del GPT-4 no se interrumpen.

Estos incluyen GPT-4-0314 (la versión «original» de GPT-4 de marzo de 2023), GPT-4-0613 (una instantánea de GPT-4 del 13 de junio de 2023, con «soporte de llamada de función mejorado», según OpenAI), GPT-4-1106-preview (la versión de lanzamiento de GPT-4 Turbo a partir de noviembre de 2023) y GPT-4-0125-preview (el último modelo de GPT-4 Turbo, destinado a reducir los casos de «pereza» de enero de 2024).

Aún así, incluso con cuatro modelos GPT-4 en la clasificación, los modelos Claude 3 de Anthropic han ido subiendo en las listas de manera constante desde su lanzamiento a principios de este mes. El éxito de Claude 3 entre los usuarios de asistentes de IA ya ha hecho que algunos usuarios de LLM reemplacen a ChatGPT en su flujo de trabajo diario, lo que podría consumir la participación de mercado de ChatGPT. En X, el desarrollador de software Pietro Schirano escribió: «Honestamente, lo más extraño de todo este Claude 3 > GPT-4 es lo fácil que es simplemente… ¿¿cambiar??»

Gemini Advanced, de capacidad similar, de Google también ha ido ganando terreno en el espacio de asistentes de inteligencia artificial. Esto puede poner a OpenAI en guardia por ahora, pero a largo plazo, la compañía está preparando nuevos modelos. Se espera que lance un nuevo sucesor importante del GPT-4 Turbo (ya sea llamado GPT-4.5 o GPT-5) en algún momento de este año, posiblemente en el verano. Está claro que el espacio LLM estará lleno de competencia por el momento, lo que puede generar cambios más interesantes en la clasificación de Chatbot Arena en los meses y años venideros.





Source link-49

]]>
https://magazineoffice.com/el-rey-esta-muerto-claude-3-supera-a-gpt-4-en-chatbot-arena-por-primera-vez/feed/ 0
Microsoft Copilot ahora es más preciso y potente gracias a una actualización gratuita a GPT-4 Turbo https://magazineoffice.com/microsoft-copilot-ahora-es-mas-preciso-y-potente-gracias-a-una-actualizacion-gratuita-a-gpt-4-turbo/ https://magazineoffice.com/microsoft-copilot-ahora-es-mas-preciso-y-potente-gracias-a-una-actualizacion-gratuita-a-gpt-4-turbo/#respond Thu, 14 Mar 2024 04:15:55 +0000 https://magazineoffice.com/microsoft-copilot-ahora-es-mas-preciso-y-potente-gracias-a-una-actualizacion-gratuita-a-gpt-4-turbo/

Lo que necesitas saber

  • GPT-4 Turbo ha reemplazado a GPT-4 cuando se usa la versión gratuita de Microsoft Copilot.
  • Los suscriptores de Copilot Pro pueden optar por utilizar GPT-4 en lugar de GPT-4 Turbo si así lo desean.
  • GPT-4 Turbo tiene una fecha límite de conocimiento de abril de 2023, que es significativamente más reciente que la fecha límite de septiembre de 2021 de GPT-4.
  • GPT-4 Turbo también tiene una ventana de contexto de 128k, que también es mucho más alta que la del GPT-4 (ventana de contexto de 8k).

Microsoft Copilot acaba de recibir una actualización significativa, que amplía las capacidades y la base de conocimientos de la herramienta de inteligencia artificial en todas las plataformas. Copilot ahora usa GPT-4 Turbo en lugar del antiguo GPT-4. El cambio lleva el límite de la base de conocimientos a una fecha mucho más reciente y aumenta drásticamente la ventana de contexto de Copilot. El resultado final es una herramienta con más conocimientos que puede manejar más información a la vez.

La noticia la compartió Mikhail Parakhin en X (antes Twitter). Parakhin es el líder de Microsoft para el cliente Windows y también habla con frecuencia sobre Copilot on X.





Source link-40

]]>
https://magazineoffice.com/microsoft-copilot-ahora-es-mas-preciso-y-potente-gracias-a-una-actualizacion-gratuita-a-gpt-4-turbo/feed/ 0
Anthropic afirma que sus nuevos modelos superan al GPT-4 https://magazineoffice.com/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4/ https://magazineoffice.com/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4/#respond Mon, 04 Mar 2024 17:32:33 +0000 https://magazineoffice.com/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4/

La startup de IA Anthropic, respaldada por cientos de millones en capital de riesgo (y quizás pronto cientos de millones más), anunció hoy la última versión de su tecnología GenAI, Claude. Y la compañía afirma que rivaliza con el GPT-4 de OpenAI en términos de rendimiento.

Claude 3, como se llama el nuevo GenAI de Anthropic, es una familia de modelos: Claude 3 Haiku, Claude 3 Sonnet y Claude 3 Opus, siendo Opus el más poderoso. Todos muestran «mayores capacidades» en análisis y pronóstico, afirma Anthropic, así como un rendimiento mejorado en puntos de referencia específicos en comparación con modelos como GPT-4 (pero no GPT-4 Turbo) y Gemini 1.0 Ultra de Google (pero no Gemini 1.5 Pro).

En particular, Claude 3 es el primer GenAI multimodal de Anthropic, lo que significa que puede analizar tanto texto como imágenes, similar a algunas versiones de GPT-4 y Gemini. Claude 3 puede procesar fotografías, cuadros, gráficos y diagramas técnicos, extrayendo archivos PDF, presentaciones de diapositivas y otros tipos de documentos.

En un paso mejor que algunos rivales de GenAI, Claude 3 puede analizar múltiples imágenes en una sola solicitud (hasta un máximo de 20). Esto le permite comparar y contrastar imágenes, señala Anthropic.

Pero el procesamiento de imágenes de Claude 3 tiene límites.

Anthropic ha impedido que los modelos identifiquen a las personas, sin duda desconfiando de las implicaciones éticas y legales. Y la compañía admite que Claude 3 es propenso a cometer errores con imágenes de “baja calidad” (menos de 200 píxeles) y tiene dificultades con tareas que implican razonamiento espacial (por ejemplo, leer la esfera de un reloj analógico) y conteo de objetos (Claude 3 no puede dar datos exactos). recuentos de objetos en imágenes).

Créditos de imagen: antrópico

Claude 3 tampoco lo hará generar obra de arte. Los modelos analizan estrictamente imágenes, al menos por ahora.

Ya sea con texto o imágenes, Anthropic dice que los clientes generalmente pueden esperar que Claude 3 siga mejor las instrucciones de varios pasos, produzca resultados estructurados en formatos como JSON y converse en otros idiomas además del inglés en comparación con sus predecesores. Claude 3 también debería negarse a responder preguntas con menos frecuencia gracias a una «comprensión más matizada de las solicitudes», dice Anthropic. Y pronto, Claude 3 citará la fuente de sus respuestas a las preguntas para que los usuarios puedan verificarlas.

«Claude 3 tiende a generar respuestas más expresivas y atractivas», escribe Anthropic en un artículo de apoyo. “[It’s] más fácil de indicar y dirigir en comparación con nuestros modelos heredados. Los usuarios deberían descubrir que pueden lograr los resultados deseados con indicaciones más breves y concisas”.

Algunas de esas mejoras provienen del contexto ampliado de Claude 3.

El contexto de un modelo, o ventana de contexto, se refiere a los datos de entrada (por ejemplo, texto) que el modelo considera antes de generar resultados. Los modelos con ventanas de contexto pequeñas tienden a “olvidar” el contenido incluso de conversaciones muy recientes, lo que los lleva a desviarse del tema, a menudo de manera problemática. Como ventaja adicional, los modelos de contexto grande pueden captar mejor el flujo narrativo de datos que reciben y generar respuestas contextualmente más ricas (al menos hipotéticamente).

Anthropic dice que Claude 3 admitirá inicialmente una ventana de contexto de 200.000 tokens, equivalente a unas 150.000 palabras, y que los clientes seleccionados obtendrán una ventana de contexto de 1 millón de tokens (~700.000 palabras). Eso está a la par con el modelo GenAI más nuevo de Google, el Gemini 1.5 Pro mencionado anteriormente, que también ofrece una ventana de hasta 1 millón de contexto.

Ahora bien, el hecho de que Claude 3 sea una actualización de lo anterior no significa que sea perfecto.

En un documento técnico, Anthropic admite que Claude 3 no es inmune a los problemas que afectan a otros modelos GenAI, a saber, prejuicios y alucinaciones (es decir, inventar cosas). A diferencia de algunos modelos GenAI, Claude 3 no puede buscar en la web; los modelos solo pueden responder preguntas utilizando datos anteriores a agosto de 2023. Y aunque Claude es multilingüe, no domina con tanta fluidez ciertos idiomas de “bajos recursos” como el inglés.

Pero las prometedoras actualizaciones frecuentes de Anthropic para Claude 3 en los próximos meses.

«No creemos que la inteligencia modelo esté cerca de sus límites y planeamos lanzar [enhancements] a la familia de modelos Claude 3 durante los próximos meses”, escribe la compañía en una publicación de blog.

Opus y Sonnet ya están disponibles en la web y a través de la consola de desarrollo y API de Anthropic, la plataforma Bedrock de Amazon y Vertex AI de Google. Haiku seguirá más adelante este año.

Aquí está el desglose de precios:

  • Opus: 15 dólares por millón de tokens de entrada, 75 dólares por millón de tokens de salida
  • Sonnet: 3 dólares por millón de tokens de entrada, 15 dólares por millón de tokens de salida
  • Haiku: 0,25 dólares por millón de tokens de entrada, 1,25 dólares por millón de tokens de salida

Así que ese es Claude 3. ¿Pero cuál es la vista de 30.000 pies?

Bueno, como hemos reportado Anteriormente, la ambición de Anthropic era crear un «algoritmo de próxima generación para el autoaprendizaje de la IA». Un algoritmo de este tipo podría usarse para crear asistentes virtuales que puedan responder correos electrónicos, realizar investigaciones y generar arte, libros y más, algunos de los cuales ya hemos probado con empresas como GPT-4 y otros modelos de lenguaje grandes.

Anthropic insinúa esto en la publicación de blog antes mencionada, diciendo que planea agregar funciones a Claude 3 que mejoren sus capacidades inmediatas, incluida la posibilidad de que Claude 3 interactúe con otros sistemas, codificación interactiva y «capacidades de agente más avanzadas». .”

Esto último recuerda las ambiciones reportadas de OpenAI de construir una forma de agente de software para automatizar tareas complejas, como transferir datos de un documento a una hoja de cálculo para su análisis o completar automáticamente informes de gastos e ingresarlos en un software de contabilidad. OpenAI ya ofrece una API que permite a los desarrolladores crear “experiencias similares a las de un agente” en sus aplicaciones, y Anthropic, al parecer, tiene la intención de ofrecer una funcionalidad comparable.

¿Podríamos ver a continuación un generador de imágenes de Anthropic? Me sorprendería, francamente. Los generadores de imágenes son objeto de mucha controversia en estos días, principalmente por razones relacionadas con los derechos de autor y los prejuicios. Recientemente, Google se vio obligado a desactivar su generador de imágenes después de inyectar diversidad en las imágenes con un ridículo desprecio por el contexto histórico, y varios proveedores de generadores de imágenes están en batallas legales con artistas que los acusan de sacar provecho de su trabajo entrenando a GenAI en él. sin proporcionar crédito o compensación.

Tengo curiosidad por ver la evolución de la técnica de Anthropic para entrenar GenAI, «IA constitucional», que según la compañía hace que el comportamiento de sus modelos sea más fácil de entender y más sencillo de ajustar según sea necesario. La IA constitucional busca proporcionar una manera de alinear la IA con las intenciones humanas, haciendo que los modelos respondan a preguntas y realicen tareas utilizando un conjunto simple de principios rectores. Por ejemplo, para Claude 3, Anthropic dijo que agregó un principio constitucional, informado por los comentarios de los clientes, que instruye a los modelos a ser comprensibles y accesibles para las personas con discapacidades.

Cualquiera que sea el final de Anthropic, será a largo plazo. Según una presentación filtrada en mayo del año pasado, la compañía pretende recaudar hasta 5.000 millones de dólares durante el próximo año, lo que podría ser la base necesaria para seguir siendo competitivo con OpenAI. (Después de todo, los modelos de capacitación no son baratos). Está en camino, con $2 mil millones y $4 mil millones en capital comprometido y promesas de Google y Amazon, respectivamente.



Source link-48

]]>
https://magazineoffice.com/anthropic-afirma-que-sus-nuevos-modelos-superan-al-gpt-4/feed/ 0
Mistral AI lanza un nuevo modelo para rivalizar con GPT-4 y su propio asistente de chat https://magazineoffice.com/mistral-ai-lanza-un-nuevo-modelo-para-rivalizar-con-gpt-4-y-su-propio-asistente-de-chat/ https://magazineoffice.com/mistral-ai-lanza-un-nuevo-modelo-para-rivalizar-con-gpt-4-y-su-propio-asistente-de-chat/#respond Tue, 27 Feb 2024 20:17:53 +0000 https://magazineoffice.com/mistral-ai-lanza-un-nuevo-modelo-para-rivalizar-con-gpt-4-y-su-propio-asistente-de-chat/

La startup de inteligencia artificial Mistral AI, con sede en París, está construyendo gradualmente una alternativa a OpenAI y Anthropic, como muestra su último anuncio. La compañía está lanzando un nuevo modelo emblemático de lenguaje grande llamado Mistral Large. Cuando se trata de capacidades de razonamiento, está diseñado para rivalizar con otros modelos de primer nivel, como GPT-4 y Claude 2.

Además de Mistral Large, la startup también lanza su propia alternativa a ChatGPT con un nuevo servicio llamado Le Chat. Este asistente de chat está actualmente disponible en versión beta.

Si no está familiarizado con Mistral AI, la compañía es más conocida por su tabla de capitalización, ya que recaudó una cantidad obscena de dinero en muy poco tiempo para desarrollar modelos fundamentales de IA. La empresa se constituyó oficialmente en mayo de 2023. Apenas unas semanas después, Mistral AI recaudó una ronda inicial de 113 millones de dólares. En diciembre, la empresa cerró una ronda de financiación de 415 millones de dólares, con Andreessen Horowitz (a16z) liderando la ronda.

Fundada por alumnos de DeepMind y Meta de Google, Mistral AI se posicionó originalmente como una empresa de IA con un enfoque de código abierto. Si bien el primer modelo de Mistral AI se lanzó bajo una licencia de código abierto con acceso a los pesos del modelo, ese no es el caso de sus modelos más grandes.

El modelo de negocio de Mistral AI se parece cada vez más al modelo de negocio de OpenAI, ya que la empresa ofrece Mistral Large a través de una API paga con precios basados ​​en el uso. Actualmente cuesta $8 por millón de tokens de entrada y $24 por millón de tokens de salida consultar Mistral Large. En la jerga del lenguaje artificial, los tokens representan pequeños fragmentos de palabras; por ejemplo, la palabra «TechCrunch» se dividiría en dos tokens, «Tech» y «Crunch», cuando se procesa mediante un modelo de IA.

De forma predeterminada, Mistral AI admite ventanas contextuales de 32.000 tokens (generalmente más de 20.000 palabras en inglés). Mistral Large admite inglés, francés, español, alemán e italiano.

A modo de comparación, GPT-4 Turbo, que tiene una ventana de contexto de 128k tokens, actualmente cuesta $10 por millón de tokens de entrada y $30 por millón de tokens de salida. Por tanto, Mistral Large es actualmente un 20% más barato que el GPT-4 Turbo. Las cosas están cambiando a un ritmo rápido y las empresas de inteligencia artificial actualizan sus precios periódicamente.

Pero, ¿cómo se compara Mistral Large con GPT-4 y Claude 2? Como siempre, es muy difícil saberlo. Mistral AI afirma que ocupa el segundo lugar después de GPT-4 según varios puntos de referencia. Pero podría haber algunas selecciones de referencia y disparidades en el uso en la vida real. Tendremos que investigar más para ver cómo se desempeña en nuestras pruebas.

Créditos de imagen: Mistral AI

Una alternativa a ChatGPT

Mistral AI también lanza hoy un asistente de chat llamado Le Chat. Cualquiera puede registrarse y probarlo en chat.mistral.ai. La compañía dice que por ahora es una versión beta y que podría haber «peculiaridades».

El acceso al servicio es gratuito (por ahora) y los usuarios pueden elegir entre tres modelos diferentes: Mistral Small, Mistral Large y un modelo prototipo diseñado para ser breve y conciso llamado Mistral Next. También vale la pena señalar que Le Chat no puede acceder a la web cuando lo usas.

La empresa también planea lanzar una versión paga de Le Chat para clientes empresariales. Además de la facturación central, los clientes empresariales podrán definir mecanismos de moderación.

Una asociación con Microsoft

Finalmente, Mistral AI también está aprovechando las noticias de hoy para anunciar una asociación con Microsoft. Además de la propia plataforma API de Mistral, Microsoft proporcionará modelos de Mistral a sus clientes de Azure.

Es otro modelo más del catálogo de modelos de Azure, lo que no parece gran cosa. Y, sin embargo, también significa que Mistral AI y Microsoft ahora están manteniendo conversaciones sobre oportunidades de colaboración y potencialmente más. El primer beneficio de esa asociación es que Mistral AI probablemente atraerá a más clientes con este nuevo canal de distribución.

En cuanto a Microsoft, la empresa es el principal inversor de la filial de beneficios limitados de OpenAI. Pero también ha dado la bienvenida a otros modelos de IA en su plataforma de computación en la nube. Por ejemplo, Microsoft y Meta se asocian para ofrecer modelos de lenguaje grandes de Llama en Azure.

Esta estrategia de asociación abierta es una buena manera de mantener a sus clientes de Azure en su ecosistema de productos. También podría ayudar cuando se trata de un escrutinio anticompetitivo.

Corrección: una versión anterior de este artículo comparó los precios de Mistral Large con una versión anterior de la API GPT de OpenAI. Mistral Large es un 20% más barato que la versión más reciente de GPT llamada GPT-4 Turbo.



Source link-48

]]>
https://magazineoffice.com/mistral-ai-lanza-un-nuevo-modelo-para-rivalizar-con-gpt-4-y-su-propio-asistente-de-chat/feed/ 0