Los ejecutivos de OpenAI advierten sobre el «riesgo de extinción» de la inteligencia artificial en una nueva carta abierta


Agrandar / Una imagen generada por IA de «IA tomando el control del mundo».

Difusión estable

El martes, el Centro para la Seguridad de la IA (CAIS) emitió una declaración de una sola oración firmada por ejecutivos de OpenAI y DeepMind, ganadores del Premio Turing y otros investigadores de IA que advierten que el trabajo de su vida podría extinguir a toda la humanidad.

La breve declaración, que según CAIS está destinada a abrir el debate sobre el tema de «un amplio espectro de riesgos importantes y urgentes de la IA», dice lo siguiente: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales». riesgos a gran escala, como pandemias y guerras nucleares».

Los signatarios de alto perfil de la declaración incluyen a los ganadores del Premio Turing Geoffery Hinton y Yoshua Bengio, el CEO de OpenAI, Sam Altman, el científico jefe de OpenAI, Ilya Sutskever, el CTO de OpenAI, Mira Murati, el CEO de DeepMind, Demis Hassabis, el CEO de Anthropic, Dario Amodei, y profesores de UC Berkeley, Stanford y MIT.

Esta declaración se produce mientras Altman viaja por el mundo y se reúne con jefes de estado sobre la IA y sus peligros potenciales. A principios de mayo, Altman abogó por las regulaciones de su industria frente al Senado de los Estados Unidos.

Teniendo en cuenta su corta extensión, la carta abierta de CAIS se destaca por lo que no incluye. Por ejemplo, no especifica exactamente qué significa «IA», considerando que el término puede aplicarse a cualquier cosa, desde movimientos de fantasmas en pac man a modelos de lenguaje que pueden escribir sonetos al estilo de un mafioso sabio de los años cuarenta. La carta tampoco sugiere cómo se podrían mitigar los riesgos de extinción, solo que debería ser una «prioridad global».

Sin embargo, en un comunicado de prensa relacionado, CAIS dice que quiere «establecer barandillas y establecer instituciones para que los riesgos de la IA no nos tomen desprevenidos», y compara la advertencia sobre la IA con la advertencia de J. Robert Oppenheimer sobre los efectos potenciales. de la bomba atómica.

A los expertos en ética de la IA no les hace gracia

Una imagen generada por IA de un globo que ha dejado de girar.
Agrandar / Una imagen generada por IA de un globo que ha dejado de girar.

Difusión estable

Esta no es la primera carta abierta sobre peligros hipotéticos de IA que acaban con el mundo que hemos visto este año. En marzo, el Future of Life Institute publicó una declaración más detallada firmada por Elon Musk que abogaba por una pausa de seis meses en los modelos de IA «más potentes que GPT-4», que recibió una amplia cobertura de prensa pero también recibió una respuesta escéptica. de algunos en la comunidad de aprendizaje automático.

A los expertos que a menudo se enfocan en la ética de la IA no les divierte esta tendencia emergente de cartas abiertas.

La Dra. Sasha Luccioni, científica investigadora de aprendizaje automático en Hugging Face, compara la nueva carta de CAIS con un juego de manos: «En primer lugar, mencionar el riesgo existencial hipotético de la IA al mismo tiempo que riesgos muy tangibles como las pandemias y el cambio climático. , que son muy frescos y viscerales para el público, le da más credibilidad», dice. «También es una mala dirección, atraer la atención del público a una cosa (riesgos futuros) para que no piensen en otra (riesgos tangibles actuales como prejuicios, problemas legales y consentimiento)».



Source link-49