{"id":654605,"date":"2023-05-30T12:30:32","date_gmt":"2023-05-30T12:30:32","guid":{"rendered":"https:\/\/magazineoffice.com\/los-mejores-investigadores-y-directores-ejecutivos-de-ia-advierten-contra-el-riesgo-de-extincion-en-una-declaracion-de-22-palabras\/"},"modified":"2023-05-30T12:30:37","modified_gmt":"2023-05-30T12:30:37","slug":"los-mejores-investigadores-y-directores-ejecutivos-de-ia-advierten-contra-el-riesgo-de-extincion-en-una-declaracion-de-22-palabras","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-mejores-investigadores-y-directores-ejecutivos-de-ia-advierten-contra-el-riesgo-de-extincion-en-una-declaracion-de-22-palabras\/","title":{"rendered":"Los mejores investigadores y directores ejecutivos de IA advierten contra el \u00abriesgo de extinci\u00f3n\u00bb en una declaraci\u00f3n de 22 palabras"},"content":{"rendered":"


\n<\/p>\n

\n
\n

Un grupo de importantes investigadores, ingenieros y directores ejecutivos de IA ha emitido una nueva advertencia sobre la amenaza existencial que creen que la IA representa para la humanidad. <\/p>\n<\/div>\n

\n

El declaraci\u00f3n de 22 palabras<\/a>recortado para que sea lo m\u00e1s ampliamente aceptable posible, dice lo siguiente: \u00abMitigar el riesgo de extinci\u00f3n de la IA deber\u00eda ser una prioridad mundial junto con otros riesgos a escala social, como pandemias y guerras nucleares\u00bb. <\/p>\n<\/div>\n

\n

Esta declaraci\u00f3n, publicada por una organizaci\u00f3n sin fines de lucro con sede en San Francisco, el Center for AI Safety, ha sido firmada conjuntamente por figuras como el director ejecutivo de Google DeepMind, Demis Hassabis, y el director ejecutivo de OpenAI, Sam Altman, as\u00ed como Geoffrey Hinton y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 (a veces denominado el \u00abPremio Nobel de la inform\u00e1tica\u00bb) por su trabajo en IA. Al momento de escribir este art\u00edculo, el tercer ganador del a\u00f1o, Yann LeCun, ahora cient\u00edfico jefe de inteligencia artificial en la empresa matriz de Facebook, Meta, no ha firmado.<\/p>\n<\/div>\n

\n

La declaraci\u00f3n es la \u00faltima intervenci\u00f3n de alto perfil en el complicado y controvertido debate sobre la seguridad de la IA. A principios de este a\u00f1o, un carta abierta<\/a> firmado por algunas de las mismas personas que respaldan la advertencia de 22 palabras que ped\u00eda una \u00abpausa\u00bb de seis meses en el desarrollo de IA. La carta fue criticada en m\u00faltiples niveles. Algunos expertos pensaron que exager\u00f3 el riesgo que representa la IA, mientras que otros estuvieron de acuerdo con el riesgo pero no con el remedio sugerido en la carta.<\/p>\n<\/div>\n

\n

Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, dijo Los New York Times<\/em><\/a> que la brevedad de la declaraci\u00f3n de hoy, que no sugiere ninguna forma potencial de mitigar la amenaza que representa la IA, ten\u00eda la intenci\u00f3n de evitar tal desacuerdo. \u201cNo quer\u00edamos presionar por un men\u00fa muy grande de 30 posibles intervenciones\u201d, dijo Hendrycks. \u201cCuando eso sucede, diluye el mensaje\u201d.<\/p>\n<\/div>\n

\n
\n

\u201cHay una idea err\u00f3nea muy com\u00fan, incluso en la comunidad de IA, de que solo hay un pu\u00f1ado de doomers\u201d.<\/p>\n<\/div>\n<\/div>\n

\n

Hendrycks describi\u00f3 el mensaje como una \u00absalida del armario\u00bb para las figuras de la industria preocupadas por el riesgo de la IA. \u201cHay una idea err\u00f3nea muy com\u00fan, incluso en la comunidad de IA, de que solo hay un pu\u00f1ado de doomers\u201d, dijo Hendrycks. Los tiempos<\/em>. \u201cPero, de hecho, muchas personas en privado expresar\u00edan su preocupaci\u00f3n por estas cosas\u201d.<\/p>\n<\/div>\n

\n

Los contornos generales de este debate son familiares, pero los detalles a menudo son interminables, basados \u200b\u200ben escenarios hipot\u00e9ticos en los que los sistemas de IA aumentan r\u00e1pidamente sus capacidades y ya no funcionan de manera segura. Muchos expertos apuntan a mejoras r\u00e1pidas en sistemas como modelos de lenguaje grandes como evidencia de ganancias futuras proyectadas en inteligencia. Dicen que una vez que los sistemas de IA alcanzan un cierto nivel de sofisticaci\u00f3n, puede volverse imposible controlar sus acciones. <\/p>\n<\/div>\n

\n

Otros dudan de estas predicciones. Se\u00f1alan la incapacidad de los sistemas de inteligencia artificial para manejar incluso tareas relativamente mundanas como, por ejemplo, conducir un autom\u00f3vil. A pesar de a\u00f1os de esfuerzo y miles de millones de inversiones en esta \u00e1rea de investigaci\u00f3n, los autom\u00f3viles completamente aut\u00f3nomos a\u00fan est\u00e1n lejos de ser una realidad. Si la IA no puede manejar ni siquiera este desaf\u00edo, dicen los esc\u00e9pticos, \u00bfqu\u00e9 posibilidades tiene la tecnolog\u00eda de igualar todos los dem\u00e1s logros humanos en los pr\u00f3ximos a\u00f1os?<\/p>\n<\/div>\n

\n

Mientras tanto, tanto los defensores del riesgo de la IA como los esc\u00e9pticos est\u00e1n de acuerdo en que, incluso sin mejoras en sus capacidades, los sistemas de IA presentan una serie de amenazas en la actualidad, desde su uso que permite la vigilancia masiva, hasta la activaci\u00f3n de algoritmos defectuosos de \u00abvigilancia predictiva\u00bb y la facilitaci\u00f3n de la seguridad. creaci\u00f3n de informaci\u00f3n err\u00f3nea y desinformaci\u00f3n. <\/p>\n<\/div>\n<\/div>\n


\n
Source link-37 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Un grupo de importantes investigadores, ingenieros y directores ejecutivos de IA ha emitido una nueva advertencia sobre la amenaza existencial que creen que la IA representa para la humanidad. El…<\/p>\n","protected":false},"author":1,"featured_media":654606,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[20904,190,172,6536,9382,2819,6514,8,287,2002,2468,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/654605"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=654605"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/654605\/revisions"}],"predecessor-version":[{"id":654607,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/654605\/revisions\/654607"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/654606"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=654605"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=654605"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=654605"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}