{"id":654602,"date":"2023-05-30T12:29:33","date_gmt":"2023-05-30T12:29:33","guid":{"rendered":"https:\/\/magazineoffice.com\/expertos-en-inteligencia-artificial-advierten-que-la-inteligencia-artificial-plantea-un-riesgo-de-extincion\/"},"modified":"2023-05-30T12:29:36","modified_gmt":"2023-05-30T12:29:36","slug":"expertos-en-inteligencia-artificial-advierten-que-la-inteligencia-artificial-plantea-un-riesgo-de-extincion","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/expertos-en-inteligencia-artificial-advierten-que-la-inteligencia-artificial-plantea-un-riesgo-de-extincion\/","title":{"rendered":"Expertos en inteligencia artificial advierten que la inteligencia artificial plantea un \u00abriesgo de extinci\u00f3n\u00bb"},"content":{"rendered":"


\n<\/p>\n

\n

Una larga lista de cient\u00edficos, ingenieros y otras figuras notables de IA han firmado una declaraci\u00f3n que advierte sobre los riesgos urgentes que plantea la inteligencia artificial, incluida la extinci\u00f3n.<\/p>\n

La \u00abDeclaraci\u00f3n sobre el riesgo de la IA(Se abre en una nueva ventana)<\/span>\u00bb fue publicado en el sitio web del Centro para la Seguridad de la IA (CAIS) y dice lo siguiente:<\/p>\n

\u00abMitigar el riesgo de extinci\u00f3n de la IA deber\u00eda ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear\u00bb.<\/p>\n

Tal declaraci\u00f3n podr\u00eda verse f\u00e1cilmente como una hip\u00e9rbole, pero luego revisa la lista de expertos y figuras notables que le han puesto su firma, y \u200b\u200bes dif\u00edcil no tomarla en serio. Esos signatarios incluyen a Demis Hassabis (CEO, Google Deepmind), Sam Altman (CEO, OpenAI) y Dario Amodei (CEO, Anthropic). <\/p>\n

La lista de firmantes contin\u00faa creciendo a medida que se alienta a los expertos y figuras notables (ejecutivos, profesores, l\u00edderes) a firmar si est\u00e1n de acuerdo. En el momento de escribir este art\u00edculo, hay m\u00e1s de 120 firmas, incluidas figuras clave como Peter Norvig(Se abre en una nueva ventana)<\/span>Bruce Schneier(Se abre en una nueva ventana)<\/span>y muchos otros de DeepMind, OpenAI y una gran cantidad de empresas y universidades centradas en la IA.<\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n

CAIS existe para \u00abreducir los riesgos a escala social de la inteligencia artificial\u00bb y cree que \u00abla seguridad de la IA sigue siendo notablemente descuidada\u00bb mientras que la sociedad est\u00e1 \u00abmal preparada para gestionar los riesgos de la IA\u00bb. Con eso en mente, CAIS est\u00e1 creando un ecosistema de investigaci\u00f3n y asesorando a los l\u00edderes de la industria y a los formuladores de pol\u00edticas en un intento por establecer pautas para el \u00abdespliegue seguro y responsable de la IA\u00bb.<\/p>\n

La semana pasada, Microsoft pidi\u00f3 a los EE. UU. y otros pa\u00edses que establecieran agencias gubernamentales dedicadas a regular la IA. Sam Altman de OpenAI tambi\u00e9n pidi\u00f3 regulaci\u00f3n durante una audiencia en el Congreso a principios de este mes, mientras que los tecn\u00f3logos clave tienen algunos temores sobre lo que significa la IA para la raza humana. Mientras tanto, la mayor\u00eda de los estadounidenses saben qu\u00e9 es ChatGPT, pero pocos de ellos realmente lo usan.<\/p>\n

\n
\n

\u00a1Obtenga nuestras mejores historias!<\/h4>\n

Matricularse en \u00bfQu\u00e9 hay de nuevo ahora?<\/strong> para recibir nuestras mejores historias en su bandeja de entrada todas las ma\u00f1anas.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n