El drama de la sala de juntas de OpenAI podría arruinar su futuro


En junio tuve una conversación con el científico jefe Ilya Sutskever en la sede de OpenAI, mientras informaba sobre el artículo de portada de octubre de WIRED. Entre los temas que discutimos estuvo la estructura inusual de la empresa.

OpenAI comenzó como un laboratorio de investigación sin fines de lucro cuya misión era desarrollar inteligencia artificial a la par o más allá del nivel humano (llamada inteligencia artificial general o AGI) de manera segura. La compañía descubrió un camino prometedor en grandes modelos de lenguaje que generan texto sorprendentemente fluido, pero desarrollar e implementar esos modelos requirió enormes cantidades de infraestructura informática y montañas de dinero en efectivo. Esto llevó a OpenAI a crear una entidad comercial para atraer inversores externos y consiguió un socio importante: Microsoft. Prácticamente todos en la empresa trabajaron para esta nueva rama con fines de lucro. Pero se pusieron límites a la vida comercial de la empresa. Las ganancias entregadas a los inversores debían tener un límite (para los primeros patrocinadores a 100 veces lo que habían aportado), después de lo cual OpenAI volvería a ser una organización puramente sin fines de lucro. Todo el asunto estaba gobernado por la junta directiva original de la organización sin fines de lucro, que respondía sólo a los objetivos de la misión original y tal vez a Dios.

Sutskever no apreció cuando bromeé diciendo que el extraño organigrama que trazaba esta relación parecía algo que un futuro GPT podría idear cuando se le pidiera que diseñara una evasión fiscal. «Somos la única empresa en el mundo que tiene una estructura de beneficios limitada», me amonestó. «Ésta es la razón por la que tiene sentido: si crees, como nosotros, que si tenemos mucho éxito, entonces estas GPU van a quitarme el trabajo, el tuyo y el de todos, sería bueno que esa empresa no hiciera algo realmente bueno». cantidades ilimitadas de retornos”. Mientras tanto, para asegurarse de que la parte de la empresa que busca ganancias no eluda su compromiso de garantizar que la IA no se salga de control, existe esa junta que vigila las cosas.

Este aspirante a guardián de la humanidad es la misma junta que despidió a Sam Altman el viernes pasado, diciendo que ya no tenía confianza en el CEO porque “no era consistentemente sincero en sus comunicaciones con la junta, lo que obstaculizaba su capacidad para ejercer sus responsabilidades. » No se proporcionaron ejemplos de ese supuesto comportamiento y casi nadie en la empresa supo del despido hasta justo antes de que se anunciara públicamente. El director ejecutivo de Microsoft, Satya Nadella, y otros inversores no recibieron aviso previo. Los cuatro directores, que representan la mayoría de la junta de seis personas, también expulsaron de la junta al presidente y presidente de OpenAI, Greg Brockman. Brockman renunció rápidamente.

Después de hablar con alguien familiarizado con el pensamiento de la junta directiva, me parece que al despedir a Altman los directores creyeron que estaban ejecutando su misión de asegurarse de que la empresa desarrolle una IA potente y segura, como era su única razón de existir. Aumentar las ganancias o el uso de ChatGPT, mantener la cortesía en el lugar de trabajo y mantener contentos a Microsoft y otros inversores no eran de su preocupación. En opinión de los directores Adam D’Angelo, Helen Toner y Tasha McCauley (y Sutskever), Altman no trató directamente con ellos. En pocas palabras: la junta ya no confiaba en Altman para llevar a cabo la misión de OpenAI. Si la junta no puede confiar en el director ejecutivo, ¿cómo puede proteger o incluso monitorear el progreso de la misión?

No puedo decir si la conducta de Altman realmente puso en peligro la misión de OpenAI, pero sí sé esto: la junta parece haber pasado por alto la posibilidad de que una ejecución mal explicada de un líder querido y carismático pudiera dañar esa misión. Los directores parecen haber pensado que le darían a Altman sus documentos de salida y sin complicaciones colocarían un reemplazo. En cambio, las consecuencias fueron inmediatas y volcánicas. Altman, que ya era una especie de héroe de culto, llegó a ser incluso venerado en esta nueva narrativa. Hizo poco o nada para disuadir el clamor que siguió. Para la junta, el esfuerzo de Altman por recuperar su puesto y la revuelta de los empleados de los últimos días es una especie de reivindicación de que fue correcto despedirlo. ¡Clever Sam todavía está tramando algo! Mientras tanto, todo Silicon Valley explotó, empañando el estatus de OpenAI, tal vez de forma permanente.

Las huellas dactilares de Altman no aparecen en la carta abierta publicada ayer y firmada por más del 95 por ciento de los aproximadamente 770 empleados de OpenAI que dice que los directores son «incapaces de supervisar OpenAI». Dice que si los miembros de la junta no reintegran a Altman y renuncian, los trabajadores que firmaron pueden renunciar y unirse a una nueva división de investigación avanzada de IA en Microsoft, formada por Altman y Brockman. Esta amenaza no pareció hacer mella en la determinación de los directores, quienes aparentemente sintieron que se les pedía negociar con terroristas. Es de suponer que un director siente lo contrario: Sutskever, quien ahora dice que se arrepiente de sus acciones. Su firma aparece en la carta «tú renuncias o nosotros renunciamos». Habiendo aparentemente eliminado su desconfianza hacia Altman, los dos han sido enviando notas de amor entre sí en X, la plataforma propiedad de otro cofundador de OpenAI, ahora alejado del proyecto.





Source link-46