La IA fuera de control es un riesgo de extinción, advierten los expertos


Figuras destacadas en El desarrollo de sistemas de inteligencia artificial, incluido el CEO de OpenAI, Sam Altman, y el CEO de Google DeepMind, Demis Hassabis, han firmado una declaración en la que advierten que la tecnología que están construyendo algún día podría representar una amenaza existencial para la humanidad comparable a la de la guerra nuclear y las pandemias.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en una declaración de una oración, publicada hoy por el Centro para la Seguridad de la IA, una organización sin fines de lucro.

Los filósofos han debatido durante mucho tiempo la idea de que la IA podría volverse difícil de controlar y, ya sea accidental o deliberadamente, destruir a la humanidad. Pero en los últimos seis meses, luego de algunos saltos sorprendentes y desconcertantes en el rendimiento de los algoritmos de IA, el tema se ha discutido mucho más amplia y seriamente.

Además de Altman y Hassabis, el comunicado fue firmado por Dario Amodei, CEO de Anthropic, una startup dedicada al desarrollo de IA con enfoque en la seguridad. Otros signatarios incluyen a Geoffrey Hinton y Yoshua Bengio, dos de los tres académicos que recibieron el Premio Turing por su trabajo en aprendizaje profundo, la tecnología que sustenta los avances modernos en aprendizaje automático e IA, así como docenas de empresarios e investigadores que trabajan en IA de vanguardia. problemas.

“La declaración es una gran iniciativa”, dice Max Tegmark, profesor de física en el Instituto Tecnológico de Massachusetts y director del Instituto Future of Life, una organización sin fines de lucro enfocada en los riesgos a largo plazo que plantea la IA. En marzo, el Instituto de Tegmark publicó una carta en la que pedía una pausa de seis meses en el desarrollo de algoritmos de inteligencia artificial de vanguardia para poder evaluar los riesgos. La carta fue firmada por cientos de investigadores y ejecutivos de IA, incluido Elon Musk.

Tegmark dice que espera que la declaración aliente a los gobiernos y al público en general a tomar más en serio los riesgos existenciales de la IA. “El resultado ideal es que la amenaza de extinción de la IA se generalice, lo que permitirá a todos discutirla sin temor a las burlas”, agrega.

Dan Hendrycks, director del Centro para la Seguridad de la IA, comparó el momento actual de preocupación por la IA con el debate entre científicos provocado por la creación de armas nucleares. “Necesitamos tener las conversaciones que tenían los científicos nucleares antes de la creación de la bomba atómica”, dijo Hendrycks en una cita emitida junto con la declaración de su organización.

El tono de alarma actual está vinculado a varios saltos en el rendimiento de los algoritmos de IA conocidos como modelos de lenguaje grande. Estos modelos consisten en un tipo específico de red neuronal artificial que se entrena en enormes cantidades de texto escrito por humanos para predecir las palabras que deben seguir a una cadena determinada. Cuando se alimentan con suficientes datos y con capacitación adicional en forma de retroalimentación de humanos sobre buenas y malas respuestas, estos modelos de lenguaje pueden generar texto y responder preguntas con notable elocuencia y aparente conocimiento, incluso si sus respuestas a menudo están plagadas de errores.

Estos modelos de lenguaje han demostrado ser cada vez más coherentes y capaces a medida que se alimentan de más datos y potencia informática. El modelo más poderoso creado hasta el momento, el GPT-4 de OpenAI, puede resolver problemas complejos, incluidos los que parecen requerir algunas formas de abstracción y razonamiento de sentido común.



Source link-46