El equipo de riesgo de IA a largo plazo de OpenAI se ha disuelto


En julio del año pasado, OpenAI anunció la formación de un nuevo equipo de investigación que se prepararía para la llegada de una inteligencia artificial superinteligente capaz de burlar y dominar a sus creadores. Ilya Sutskever, científico jefe de OpenAI y uno de los cofundadores de la empresa, fue nombrado codirector de este nuevo equipo. OpenAI dijo que el equipo recibiría el 20 por ciento de su potencia informática.

Ahora el “equipo de superalineación” de OpenAI ya no existe, confirma la compañía. Esto se produce después de la salida de varios investigadores implicados, de la noticia del martes de que Sutskever dejaba la empresa y de la resignación del otro colíder del equipo. El trabajo del grupo será absorbido por otros esfuerzos de investigación de OpenAI.

La partida de Sutskever fue noticia porque, aunque ayudó al CEO Sam Altman a iniciar OpenAI en 2015 y estableció la dirección de la investigación que condujo a ChatGPT, también fue uno de los cuatro miembros de la junta que despidieron a Altman en noviembre. Altman fue restituido como director ejecutivo cinco días caóticos después de una revuelta masiva del personal de OpenAI y la negociación de un acuerdo en el que Sutskever y otros dos directores de la empresa abandonaron la junta.

Horas después de que se anunciara la partida de Sutskever el martes, Jan Leike, el ex investigador de DeepMind que fue el otro colíder del equipo de superalineación, publicado en X que había dimitido.

Ni Sutskever ni Leike respondieron a las solicitudes de comentarios. Sutskever no ofreció una explicación por su decisión de irse, pero ofreció apoyo para el camino actual de OpenAI. en una publicación en X. «La trayectoria de la empresa ha sido nada menos que milagrosa, y estoy seguro de que OpenAI creará una AGI que sea segura y beneficiosa» bajo su liderazgo actual, escribió.

Leike publicado un hilo en x el viernes explicando que su decisión se debió a un desacuerdo sobre las prioridades de la empresa y la cantidad de recursos que se estaban asignando a su equipo.

«He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura», escribió Leike. “Durante los últimos meses mi equipo ha estado navegando contra el viento. A veces estábamos luchando por la informática y cada vez era más difícil realizar esta investigación crucial”.

La disolución del equipo de superalineación de OpenAI se suma a la evidencia reciente de una reestructuración dentro de la empresa a raíz de la crisis de gobernanza del pasado noviembre. Dos investigadores del equipo, Leopold Aschenbrenner y Pavel Izmailov, fueron despedidos por filtrar secretos de la empresa, informó The Information el mes pasado. Otro miembro del equipo, William Saunders, dejó OpenAI en febrero, según una publicación en un foro de Internet a su nombre.

Otros dos investigadores de OpenAI que trabajan en políticas y gobernanza de IA también parecen haber dejado la empresa recientemente. Cullen O’Keefe dejó su puesto como líder de investigación sobre fronteras políticas en abril, según LinkedIn. Daniel Kokotajlo, un investigador de OpenAI que es coautor de varios artículos sobre los peligros de modelos de IA más capaces, “abandonó OpenAI debido a la pérdida de confianza en que se comportaría de manera responsable en la época de AGI”, según una publicación en un foro de Internet a su nombre. . Ninguno de los investigadores que aparentemente se fueron respondió a las solicitudes de comentarios.





Source link-46