{"id":656046,"date":"2023-05-31T06:54:13","date_gmt":"2023-05-31T06:54:13","guid":{"rendered":"https:\/\/magazineoffice.com\/los-lideres-de-ai-envian-una-advertencia-de-una-frase-sobre-el-riesgo-de-extincion\/"},"modified":"2023-05-31T06:54:17","modified_gmt":"2023-05-31T06:54:17","slug":"los-lideres-de-ai-envian-una-advertencia-de-una-frase-sobre-el-riesgo-de-extincion","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-lideres-de-ai-envian-una-advertencia-de-una-frase-sobre-el-riesgo-de-extincion\/","title":{"rendered":"Los l\u00edderes de AI env\u00edan una advertencia de una frase sobre el \u00abriesgo de extinci\u00f3n\u00bb"},"content":{"rendered":"


\n<\/p>\n

\n

M\u00e1s de 350 ejecutivos, investigadores y l\u00edderes de la industria de IA firmaron una advertencia de una oraci\u00f3n publicada el martes, diciendo que debemos tratar de evitar que su tecnolog\u00eda destruya el mundo. <\/p>\n

\n
\n
\n
\n
\n
\n
\n
\n

Los creadores de ChatGPT se unen al Congreso | Tecnolog\u00eda del futuro<\/p>\n<\/div>\n

\u201cMitigar el riesgo de extinci\u00f3n de la IA deber\u00eda ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear\u201d, se lee en la declaraci\u00f3n, publicada por el Centro para la Seguridad de la IA. Los signatarios, incluido Sam Altman, director ejecutivo de IA abierta<\/span>Demis Hassabis, CEO de Google Mente profunda<\/span>Dar\u00edo Amodei, director general de antr\u00f3pico<\/span>y Geoffrey Hinton, el llamado \u00abPadrino de la IA\u00bb que recientemente renunci\u00f3 a Google por temores sobre el trabajo de su vida<\/span>. <\/p>\n

A medida que la conversaci\u00f3n p\u00fablica sobre la IA pas\u00f3 de asombrado a dist\u00f3pico durante el \u00faltimo a\u00f1o, un n\u00famero creciente de defensores, legisladores e incluso Ejecutivos de IA unidos en torno a un \u00fanico mensaje: la IA podr\u00eda destruir el mundo y deber\u00edamos hacer algo <\/em>sobre eso Lo que deber\u00eda ser ese algo, espec\u00edficamente, est\u00e1 completamente inestable, y hay poco consenso sobre la naturaleza o la probabilidad de estos riesgos existenciales. <\/p>\n

No hay duda de que la IA est\u00e1 lista para inundar el mundo con desinformaci\u00f3n<\/span>y un una gran cantidad de puestos de trabajo probablemente automatizarse hasta el olvido. La pregunta es hasta d\u00f3nde llegar\u00e1n estos problemas y cu\u00e1ndo o si desmantelar\u00e1n el orden de nuestra sociedad.<\/p>\n

Generalmente, Los ejecutivos de tecnolog\u00eda le dicen que no se preocupe por las amenazas de su trabajo, pero el negocio de la IA est\u00e1 tomando la t\u00e1ctica opuesta. OpenAI Sam Altman testific\u00f3 ante el Comit\u00e9 Judicial del Senado<\/span> este mes, llamando a CAvances para establecer una agencia reguladora de la IA. La empresa public\u00f3 un entrada en el blog<\/span> argumentando que las empresas deber\u00edan necesitar una licencia si quieren trabajar en la \u00abs\u00faper inteligencia\u00bb de IA. Altman y los jefes de antr\u00f3pico<\/span> y Google DeepMind se reunieron recientemente con el presidente Biden en la Casa Blanca para conversar sobre la regulaci\u00f3n de la IA.<\/p>\n

Sin embargo, las cosas se rompen cuando se trata de detalles, lo que explica la extensi\u00f3n de la declaraci\u00f3n del martes. Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, dijo al New York Times<\/span> lo mantuvieron breve porque los expertos no est\u00e1n de acuerdo en los detalles sobre los riesgos, o qu\u00e9, exactamente, se debe hacer para abordarlos. \u201cNo quer\u00edamos presionar por un men\u00fa muy grande de 30 posibles intervenciones\u201d, dijo Hendrycks. \u201cCuando eso sucede, diluye el mensaje\u201d.<\/p>\n

Puede parecer extra\u00f1o que las empresas de IA pidan al gobierno que las regule, lo que aparentemente se interpondr\u00eda en su camino. Es posible que, a diferencia de los l\u00edderes de otras empresas tecnol\u00f3gicas, los ejecutivos de IA realmente se preocupen por la sociedad. Sin embargo, hay muchas razones para pensar que todo esto es un poco m\u00e1s c\u00ednico de lo que parece. En muchos aspectos, las reglas de toque ligero ser\u00edan buenas para los negocios. Esto no es nuevo: algunos de los mayores defensores de una ley nacional de privacidad<\/span>por ejemplo, incluyen Google, Meta y microsoft<\/span>. <\/p>\n

Por un lado, la regulaci\u00f3n les da a las empresas una excusa cuando los cr\u00edticos comienzan a armar un esc\u00e1ndalo. Eso es algo que vemos en la industria del petr\u00f3leo y el gas, donde las empresas b\u00e1sicamente se dan por vencidas y dicen: \u201cBueno, estamos cumpliendo con la ley. \u00bfQu\u00e9 m\u00e1s quieres?\u00bb De repente, el problema son los reguladores incompetentes, no las corporaciones pobres. <\/p>\n

La regulaci\u00f3n tambi\u00e9n hace que sea mucho m\u00e1s costoso operar, lo que puede ser un beneficio para las empresas establecidas cuando obstaculiza a las nuevas empresas m\u00e1s peque\u00f1as que, de otro modo, podr\u00edan ser competitivas. Eso es especialmente relevante en los negocios de IA, donde todav\u00eda es un juego de cualquiera y los desarrolladores m\u00e1s peque\u00f1os podr\u00edan representar una amenaza para los grandes. Con el tipo correcto de regulaci\u00f3n, compa\u00f1\u00edas como OpenAI y Google podr\u00edan esencialmente subir la escalera detr\u00e1s de ellas. Adem\u00e1s de todo eso, las leyes nacionales d\u00e9biles se interponen en el camino de los molestos legisladores estatales, que a menudo presionan m\u00e1s en el negocio de la tecnolog\u00eda. <\/p>\n

Y no olvidemos que la regulaci\u00f3n que piden los empresarios de IA se trata de problemas hipot\u00e9ticos que podr\u00edan ocurrir m\u00e1s adelante, no de problemas reales que est\u00e1n ocurriendo ahora. Herramientas como ChatGPT inventar mentiras<\/span>ellos tienen horneado-en el racismo<\/span>y son ya ayudando a las empresas<\/span> eliminar puestos de trabajo<\/span>. En los llamados de OpenAI para regular la superinteligencia, una tecnolog\u00eda que no existen: la compa\u00f1\u00eda hace una sola referencia a los problemas reales que ya enfrentamos: \u00abTambi\u00e9n debemos mitigar los riesgos de la tecnolog\u00eda de inteligencia artificial actual\u00bb.<\/p>\n

Sin embargo, hasta ahora, a OpenAI no parece gustarle que la gente intente mitigar esos riesgos. La Uni\u00f3n Europea tom\u00f3 medidas para hacer algo acerca de estos problemas, proponiendo reglas especiales para los sistemas de IA en \u00abalto nivel\u00bb.\u00e1reas de riesgo\u201d como elecciones y atenci\u00f3n m\u00e9dica, y Altman amenaz\u00f3 con sacar a su empresa de la UE<\/span> operaciones en total. M\u00e1s tarde regres\u00f3 la declaraci\u00f3n y dijo OpenAI no tiene planes de salir de Europa,<\/span> al menos no todav\u00eda.<\/p>\n

\u00bfQuiere saber m\u00e1s sobre la IA, los chatbots y el futuro del aprendizaje autom\u00e1tico? Consulte nuestra cobertura completa de <\/em>inteligencia artificial<\/em><\/span>o explore nuestras gu\u00edas para <\/em>Los mejores generadores de arte de IA gratuitos<\/em><\/span> y <\/em>Todo lo que sabemos sobre ChatGPT de OpenAI<\/em><\/span>.<\/em><\/p>\n<\/div>\n


\n
Source link-45<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

M\u00e1s de 350 ejecutivos, investigadores y l\u00edderes de la industria de IA firmaron una advertencia de una oraci\u00f3n publicada el martes, diciendo que debemos tratar de evitar que su tecnolog\u00eda…<\/p>\n","protected":false},"author":1,"featured_media":656047,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[123],"tags":[5307,1273,2819,10679,3834,8,2468,15,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/656046"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=656046"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/656046\/revisions"}],"predecessor-version":[{"id":656048,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/656046\/revisions\/656048"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/656047"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=656046"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=656046"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=656046"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}