{"id":641982,"date":"2023-05-23T09:41:12","date_gmt":"2023-05-23T09:41:12","guid":{"rendered":"https:\/\/magazineoffice.com\/los-lideres-de-openai-proponen-un-organismo-regulador-internacional-para-la-ia\/"},"modified":"2023-05-23T09:41:16","modified_gmt":"2023-05-23T09:41:16","slug":"los-lideres-de-openai-proponen-un-organismo-regulador-internacional-para-la-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-lideres-de-openai-proponen-un-organismo-regulador-internacional-para-la-ia\/","title":{"rendered":"Los l\u00edderes de OpenAI proponen un organismo regulador internacional para la IA"},"content":{"rendered":"


\n<\/p>\n

\n

La IA se est\u00e1 desarrollando lo suficientemente r\u00e1pido y los peligros que puede plantear son lo suficientemente claros como para que el liderazgo de OpenAI crea que el mundo necesita un organismo regulador internacional similar al que rige la energ\u00eda nuclear, y r\u00e1pido. Pero no demasiado r\u00e1pido.<\/p>\n

En una publicaci\u00f3n en el blog de la empresa, el fundador de OpenAI, Sam Altman, el presidente Greg Brockman y el cient\u00edfico jefe Ilya Sutskever explican que el ritmo de la innovaci\u00f3n en inteligencia artificial es tan r\u00e1pido que no podemos esperar que las autoridades existentes controlen adecuadamente la tecnolog\u00eda.<\/p>\n

Si bien hay una cierta cualidad de darse palmaditas en la espalda aqu\u00ed, est\u00e1 claro para cualquier observador imparcial que la tecnolog\u00eda, m\u00e1s visiblemente en el explosivamente popular agente conversacional ChatGPT de OpenAI, representa una amenaza \u00fanica, as\u00ed como un activo invaluable.<\/p>\n

La publicaci\u00f3n, por lo general bastante ligera en detalles y compromisos, admite sin embargo que la IA no se va a manejar sola:<\/p>\n

\n

Necesitamos cierto grado de coordinaci\u00f3n entre los principales esfuerzos de desarrollo para garantizar que el desarrollo de la superinteligencia ocurra de una manera que nos permita mantener la seguridad y ayudar a la integraci\u00f3n fluida de estos sistemas con la sociedad.<\/p>\n

Es probable que eventualmente necesitemos algo como un [International Atomic Energy Agency] para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computaci\u00f3n) deber\u00e1 estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditor\u00edas, probar el cumplimiento de los est\u00e1ndares de seguridad, imponer restricciones en los grados de implementaci\u00f3n y niveles de seguridad, etc.<\/p>\n<\/blockquote>\n

El OIEA es el organismo oficial de la ONU para la colaboraci\u00f3n internacional en cuestiones de energ\u00eda nuclear, aunque, por supuesto, al igual que otras organizaciones de este tipo, puede necesitar un golpe. Es posible que un organismo rector de IA basado en este modelo no pueda intervenir y activar a un mal actor, pero puede establecer y rastrear est\u00e1ndares y acuerdos internacionales, que es al menos un punto de partida.<\/p>\n

La publicaci\u00f3n de OpenAI se\u00f1ala que el seguimiento de la potencia de c\u00f3mputo y el uso de energ\u00eda dedicado a la investigaci\u00f3n de IA es una de las relativamente pocas medidas objetivas que pueden y probablemente deben informarse y rastrearse. Si bien puede ser dif\u00edcil decir que la IA debe o no usarse para esto o para aquello, puede ser \u00fatil decir que los recursos dedicados a ella deben, al igual que otras industrias, ser monitoreados y auditados. (Las empresas m\u00e1s peque\u00f1as podr\u00edan estar exentas para no estrangular los brotes verdes de la innovaci\u00f3n, sugiri\u00f3 la empresa).<\/p>\n

El destacado investigador y cr\u00edtico de IA, Timnit Gebru, dijo hoy algo similar en una entrevista con The Guardian: \u201cA menos que haya presi\u00f3n externa para hacer algo diferente, las empresas no van a autorregularse simplemente. Necesitamos regulaci\u00f3n y necesitamos algo mejor que solo un motivo de lucro\u201d.<\/p>\n

OpenAI ha adoptado visiblemente este \u00faltimo, para consternaci\u00f3n de muchos que esperaban que estar\u00eda a la altura de su nombre, pero al menos como l\u00edder del mercado tambi\u00e9n est\u00e1 pidiendo una acci\u00f3n real en el lado de la gobernanza, m\u00e1s all\u00e1 de audiencias como la \u00faltima, donde los senadores se alinean. dar discursos de reelecci\u00f3n que terminan en interrogantes.<\/p>\n

Si bien la propuesta equivale a \u00abtal vez deber\u00edamos hacer algo\u00bb, es al menos un tema de conversaci\u00f3n en la industria e indica el apoyo de la marca y proveedor de IA m\u00e1s grande del mundo para hacer algo. Se necesita desesperadamente la supervisi\u00f3n p\u00fablica, pero \u201ctodav\u00eda no sabemos c\u00f3mo dise\u00f1ar un mecanismo de este tipo\u201d.<\/p>\n

Y aunque los l\u00edderes de la compa\u00f1\u00eda dicen que apoyan pisar el freno, todav\u00eda no hay planes para hacerlo, porque no quieren dejar ir el enorme potencial \u00abpara mejorar nuestras sociedades\u00bb (sin mencionar los resultados) y porque existe el riesgo de que los malos actores tengan el pie derecho en el acelerador.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La IA se est\u00e1 desarrollando lo suficientemente r\u00e1pido y los peligros que puede plantear son lo suficientemente claros como para que el liderazgo de OpenAI crea que el mundo necesita…<\/p>\n","protected":false},"author":1,"featured_media":641983,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[2201,3834,8,49133,11317,107,7183,20136],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/641982"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=641982"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/641982\/revisions"}],"predecessor-version":[{"id":641984,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/641982\/revisions\/641984"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/641983"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=641982"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=641982"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=641982"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}