El reclamo salvaje en el corazón de la demanda OpenAI de Elon Musk


Elon Musk comenzó la semana publicando irritadamente en X sobre su Tiene dificultades para configurar una nueva computadora portátil con Windows. Terminó presentando una demanda acusando a OpenAI de desarrollar imprudentemente IA a nivel humano y entregársela a Microsoft.

La demanda de Musk se presenta contra OpenAI y dos de sus ejecutivos, el director ejecutivo Sam Altman y el presidente Greg Brockman, quienes trabajaron con el empresario de cohetes y automóviles para fundar la compañía en 2015. Gran parte del caso gira en torno a una decisión técnica audaz y cuestionable. Afirmación: Que OpenAI ha desarrollado la llamada inteligencia artificial general, o AGI, un término generalmente utilizado para referirse a máquinas que pueden igualar o superar a los humanos de manera integral.

El caso afirma que Altman y Brockman violaron el «Acuerdo fundacional» original para OpenAI elaborado con Musk, que, según dice, comprometió a la compañía a desarrollar AGI abiertamente y «en beneficio de la humanidad». La demanda de Musk alega que la rama con fines de lucro de la compañía, establecida en 2019 después de que él se separó de OpenAI, creó AGI sin la transparencia adecuada y se la otorgó a Microsoft, que ha invertido miles de millones en la compañía. Exige que se obligue a OpenAI a publicar su tecnología abiertamente y que se le prohíba utilizarla para beneficiar financieramente a Microsoft, Altman o Brockman.

«En términos de información y creencias, GPT-4 es un algoritmo AGI», afirma la demanda, refiriéndose al modelo de lenguaje grande que se encuentra detrás de ChatGPT de OpenAI. Cita estudios que encontraron que el sistema puede obtener una calificación aprobatoria en el examen uniforme de la barra y otras pruebas estándar como prueba de que ha superado algunas habilidades humanas fundamentales. “GPT-4 no sólo es capaz de razonar. Es mejor razonando que los humanos promedio”, afirma la demanda.

Aunque GPT-4 fue anunciado como un gran avance cuando se lanzó en marzo de 2023, la mayoría de los expertos en IA no lo ven como una prueba de que se haya logrado AGI. «GPT-4 es general, pero obviamente no es AGI en la forma en que la gente suele usar el término», dice Oren Etzioni, profesor emérito de la Universidad de Washington y experto en IA.

«Será visto como una afirmación descabellada», dice Christopher Manning, profesor de la Universidad de Stanford que se especializa en inteligencia artificial y lenguaje, sobre la afirmación de AGI en la demanda de Musk. Manning dice que hay puntos de vista divergentes sobre lo que constituye AGI dentro de la comunidad de IA. Algunos expertos podrían poner el listón más bajo, argumentando que la capacidad de GPT-4 para realizar una amplia gama de funciones justificaría llamarlo AGI, mientras que otros prefieren reservar el término para algoritmos que pueden ser más astutos que la mayoría o todos los humanos en cualquier cosa. «Según esta definición, creo que claramente no tenemos AGI y, de hecho, todavía estamos bastante lejos de tenerlo», afirma.

Avance limitado

GPT-4 ganó atención (y nuevos clientes para OpenAI) porque puede responder una amplia gama de preguntas, mientras que los programas de IA más antiguos generalmente se dedicaban a tareas específicas como jugar ajedrez o etiquetar imágenes. La demanda de Musk se refiere a las afirmaciones de los investigadores de Microsoft, en un artículo de marzo de 2023, de que «dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (aunque aún incompleta) de un sistema general artificial». sistema de inteligencia (AGI)”. A pesar de sus impresionantes capacidades, GPT-4 todavía comete errores y tiene importantes limitaciones en su capacidad para analizar correctamente preguntas complejas.

«Tengo la sensación de que la mayoría de nosotros, los investigadores sobre el terreno, pensamos que los grandes modelos de lenguaje [like GPT-4] «Son una herramienta muy importante para permitir a los humanos hacer mucho más, pero están limitadas de manera que están lejos de ser inteligencias independientes», añade Michael Jordan, profesor de la Universidad de California en Berkeley y una figura influyente en el campo del aprendizaje automático.

Jordan añade que prefiere evitar por completo el término AGI porque es muy vago. «Nunca he descubierto que Elon Musk tenga algo que decir sobre la IA que esté muy calibrada o basada en la realidad de la investigación», añade.





Source link-46