En el corazón de la disputa OpenAI de Altman había un artículo de investigación


Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas. Wccftech.com tiene una política de divulgación y ética.

Después de un fin de semana notable en Silicon Valley en el que su última innovación, la IA, quedó en el centro de la política típica de las salas de juntas corporativas, el ex director ejecutivo de OpenAI, Sam Altman, regresó triunfalmente a su empresa. La fricción de Altman con la junta directiva de OpenAI ha provocado mucho discurso en los medios sociales y tradicionales, y se cree que los desacuerdos surgen de la división entre OpenAI y la naturaleza lucrativa/sin fines de lucro de su holding. Sin embargo, un enfoque con fines de lucro podría no haber sido la única razón de la división, ya que un nuevo informe del New York Times comparte que una fuente clave de fricción fue un artículo de investigación escrito por Helen Toner, miembro de la junta directiva.

Un artículo de investigación en el corazón del derrocamiento de Altman caracterizó el enfoque de ‘señalización’ de OpenAI como inadecuado

La Sra. Toner es directora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown y, en octubre, escribió un estudio de caso que cubrió cómo los gobiernos y las empresas podrían estructurar su comunicación para evitar interpretaciones erróneas por parte de otros. El artículo, escrito en coautoría con otros asociados con Georgetown, definió herramientas de comunicación llamadas «señales» en las que los actores espaciales de inteligencia artificial y seguridad nacional podrían confiar para aclarar sus intenciones.

Las cuatro señales en el documento son atar las manos, costos irrecuperables, costos a plazos y costos reducibles. Estos enfoques varían desde atar las manos, que limita a una empresa mediante políticas u otros anuncios de los que sería difícil retroceder, hasta costos de pago a plazos con costos iniciales más altos (como costosos compromisos de cumplimiento) que se reducen con el tiempo a medida que se acumulan los beneficios.

En este frente, el artículo de la Sra. Toner se centró específicamente en las acciones de OpenAI en torno al lanzamiento del modelo GPT-4. OpenAI anunció GPT-4 en marzo de 2023 y, según los autores del artículo, si bien el modelo en sí fue un logro tecnológico notable, su relevancia para la señalización surgió a través de sus documentos complementarios.

Señales de IA costosas como se define en el documento. Imagen: Ejemplos de costosas señales de IA/intenciones de decodificación
Inteligencia artificial y señales costosas – Andrew Imbrie Owen Daniels Helen Toner (Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown)

Estos documentos incluían una tarjeta del sistema que explicaba los riesgos de GPT-4 y cómo OpenAI los había mitigado mientras se apresuraba a lanzar el primer modelo GPT-4 al mercado. Los autores compartieron que creían que era relativamente infructuoso como herramienta de comunicación para el compromiso de OpenAI con la seguridad.

El documento explica:

Si bien la tarjeta del sistema en sí ha sido bien recibida entre los investigadores interesados ​​en comprender el perfil de riesgo de GPT-4, parece haber tenido menos éxito como señal más amplia del compromiso de OpenAI con la seguridad. La razón de este resultado no deseado es que la compañía tomó otras acciones que eclipsaron la importación de la tarjeta del sistema: en particular, el exitoso lanzamiento de ChatGPT cuatro meses antes.

Luego, los investigadores compararon el enfoque de OpenAI con el utilizado por su competidor, Anthropic, y su plataforma Claude. Elogiaron la decisión de Anthropic de retrasar el lanzamiento de Claude para detener el «avance».[ing] «El ritmo de progreso de las capacidades de IA» y definió esta decisión como una «costosa señal de moderación».

Como lo expresan:

Al retrasar el lanzamiento de Claude hasta que otra empresa lanzara un producto con capacidades similares, Anthropic estaba mostrando su voluntad de evitar exactamente el tipo de recortes frenéticos que el lanzamiento de ChatGPT parecía estimular. Anthropic logró este objetivo aprovechando los costos a plazos o costos fijos que no se pueden compensar con el tiempo. En el marco de este estudio, Anthropic mejoró la credibilidad de sus compromisos con la seguridad de la IA al retrasar el lanzamiento anticipado de su modelo y absorber posibles pérdidas de ingresos futuras. La motivación en este caso no fue recuperar esas pérdidas ganando una participación de mercado más amplia, sino más bien promover normas de la industria y contribuir a expectativas compartidas en torno al desarrollo y despliegue responsable de la IA.

El informe del NYT comparte que Altman no estaba satisfecho con Holt después de la publicación del artículo y compartió sus preocupaciones con los empleados de OpenAI a través de un correo electrónico. Además, poco después se produjo un desarrollo bastante interesante, con el jefe de investigación de OpenAI, Ilya Sutsekver, debatiendo inicialmente si expulsar a Toner de la junta directiva. Sin embargo, sorprendentemente, decidió actuar contra Altman, una decisión de la que se arrepentiría en unos días.

Comparte esta historia

Facebook

Gorjeo



Source link-29