La IA presenta un ‘riesgo de extinción’ a la par de una guerra nuclear, dicen los líderes de la industria


Con el auge de ChatGPT, Bard y otros modelos de lenguaje extenso (LLM), hemos escuchado advertencias de personas involucradas como Elon Musk sobre los riesgos que plantea la inteligencia artificial (IA). Ahora, un grupo de líderes de la industria de alto perfil ha emitido una declaración de una oración que confirma efectivamente esos temores.

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

Fue publicado en el Centro para la Seguridad de la IA, una organización con la misión de «reducir los riesgos a escala social de la inteligencia artificial», según su sitio web. Los firmantes son quién es quién de la industria de la IA, incluido el director ejecutivo de OpenAI, Sam Altman, y el director de Google DeepMind, Demis Hassabis. Los investigadores Geoffrey Hinton y Yoshua Bengio, ganadores del Premio Turing, considerados por muchos como los padrinos de la IA moderna, también le pusieron su nombre.

Es la segunda declaración de este tipo en los últimos meses. En marzo, Musk, Steve Wozniak y más de 1000 personas pidieron una pausa de seis meses en la IA para permitir que la industria y el público se pongan al día de manera efectiva con la tecnología. «Los últimos meses han visto a los laboratorios de IA encerrados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable», dice la carta.

Aunque la IA no es (probablemente) consciente de sí misma como algunos temían, ya presenta riesgos de mal uso y daño a través de falsificaciones profundas, desinformación automatizada y más. Los LLM también podrían cambiar la forma en que se producen el contenido, el arte y la literatura, lo que podría afectar numerosos trabajos.

El presidente de EE. UU., Joe Biden, declaró recientemente que «queda por ver» si la IA es peligrosa y agregó que «las empresas tecnológicas tienen la responsabilidad, en mi opinión, de asegurarse de que sus productos sean seguros antes de hacerlos públicos… La IA puede ayudar a lidiar con algunos desafíos muy difíciles como las enfermedades y el cambio climático, pero también tiene que abordar los riesgos potenciales para nuestra sociedad, nuestra economía y nuestra seguridad nacional». En una reunión reciente en la Casa Blanca, Altman pidió la regulación de la IA debido a los riesgos potenciales.

Con muchas opiniones dando vueltas, la nueva y breve declaración pretende mostrar una preocupación común sobre los riesgos de la IA, incluso si las partes no están de acuerdo en cuáles son.

«Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA», se lee en el preámbulo de la declaración. «Aún así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir el debate. También pretende crear un conocimiento común del creciente número de expertos y público. figuras que también se toman en serio algunos de los riesgos más graves de la IA avanzada».



Source link-47