{"id":675597,"date":"2023-06-10T23:10:04","date_gmt":"2023-06-10T23:10:04","guid":{"rendered":"https:\/\/magazineoffice.com\/que-pasa-si-la-inteligencia-artificial-se-sale-de-control\/"},"modified":"2023-06-10T23:10:08","modified_gmt":"2023-06-10T23:10:08","slug":"que-pasa-si-la-inteligencia-artificial-se-sale-de-control","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/que-pasa-si-la-inteligencia-artificial-se-sale-de-control\/","title":{"rendered":"\u00bfQu\u00e9 pasa si la inteligencia artificial se sale de control?"},"content":{"rendered":"


\n<\/p>\n

<\/p>\n
\n
\n

Cada vez m\u00e1s investigadores destacados de IA expresan su preocupaci\u00f3n por los riesgos de una m\u00e1quina hiperinteligente. Pero no todo el mundo teme el apocalipsis de los clips y otros escenarios de terror.<\/p>\n

<\/div>\n<\/div>\n

<\/p>\n

\n
<\/div>
\n
\n

\u00abTen cuidado con lo que deseas\u00bb es la moraleja de la historia del clip.<\/h2>\n

imagen<\/span><\/p>\n<\/div>\n<\/figcaption><\/figure>\n

<\/p>\n

Imagine un fabricante que posee una m\u00e1quina poderosa e hiperinteligente. Un d\u00eda \u00e9l le encarga la producci\u00f3n de clips para papel. La m\u00e1quina se pone a trabajar. Encuentra formas cada vez m\u00e1s eficientes de hacer clips. Debido a que es m\u00e1s inteligente que todos los humanos, se da acceso a todos los recursos necesarios.<\/p>\n

<\/p>\n

Pronto obligar\u00e1 a la gente a construir f\u00e1bricas de clips para papel. Algunos quieren detenerla, pero ella es dominada y saca a los resistentes del camino. Al final, mata a todos los dem\u00e1s y los convierte en clips.<\/p>\n

<\/p>\n

As\u00ed es como funciona un conocido experimento mental de Nick Bostrom. El hecho de que sea ampliamente citado cuando se trata de los riesgos de la inteligencia artificial hiperinteligente (IA) dice mucho sobre el debate. Los escenarios que suenan como algo sacado de una mala pel\u00edcula de ciencia ficci\u00f3n se discuten seriamente. <\/p>\n

<\/p>\n

El programa Chat-GPT ha demostrado lo bien que la inteligencia artificial puede manejar el habla. Como resultado, algunos investigadores han revisado sus pron\u00f3sticos para la inteligencia artificial general, es decir, sistemas que pueden aprender todo tipo de cosas por s\u00ed mismos y tienen el potencial de ser mejores que los humanos en todo.<\/p>\n

<\/p>\n

Las advertencias de Yoshua Bengio y Geoffrey Hinton<\/a>, que recibi\u00f3 el Premio Turing por su trabajo pionero en redes neuronales. Ambos advierten contra la IA general y afirman arrepentirse en parte de su investigaci\u00f3n.<\/p>\n

<\/p>\n

Incluso se habla de la aniquilaci\u00f3n de la humanidad por parte de la IA, uno llamar<\/a>Celebridades como el jefe de Open AI, Sam Altman, y el CEO de Deepmind, se han tomado este riesgo tan en serio como las pandemias o la guerra nuclear. demis hassabis<\/a> firmado.<\/p>\n

<\/p>\n

Es hora de pensar en el escenario del clip y otras pesadillas y preguntar: \u00bfdebemos preocuparnos seriamente por estos peligros ahora? <\/p>\n

<\/p>\n

\u00bfQuerr\u00edan las m\u00e1quinas inteligentes ser due\u00f1as de esclavos?<\/span><\/h2>\n

<\/p>\n

Con su experimento mental, Bostrom quer\u00eda demostrar que un ser hiperinteligente pod\u00eda causar un gran da\u00f1o incluso si no ten\u00eda malas intenciones o si se le hab\u00eda asignado hacerlo. El mal surge por s\u00ed solo cuando la m\u00e1quina trata de alcanzar un objetivo superior por medios indeseables.<\/p>\n

<\/p>\n

Otro ejemplo de esto es la IA, que tiene como objetivo hacer felices a todos y, como resultado, los intoxica para siempre con una droga milagrosa. <\/p>\n

<\/p>\n

Este argumento tambi\u00e9n aparece en entrada en el blog<\/a> de Yoshua Bengio, en el que el pionero de la IA explica \u00abc\u00f3mo podr\u00edan surgir IA maliciosas\u00bb. Argumenta que esta posibilidad se deriva necesariamente de dos supuestos. Primero, los cerebros son m\u00e1quinas biol\u00f3gicas, por lo que es posible una IA similar a la humana. En segundo lugar, la IA similar a la humana en las m\u00e1quinas superar\u00eda r\u00e1pidamente nuestras capacidades gracias a las ventajas t\u00e9cnicas.<\/p>\n

<\/p>\n

Cualquiera que acepte estas dos suposiciones debe asumir que la IA hiperinteligente es posible y, por lo tanto, tambi\u00e9n las m\u00e1quinas que no respetan nuestros valores y se interponen en nuestro camino. Porque no est\u00e1 claro c\u00f3mo se podr\u00eda descartar por completo el dise\u00f1o qua.<\/p>\n

<\/p>\n

J\u00fcrgen Schmidhuber, un pionero en la investigaci\u00f3n de IA que ha trabajado en Suiza durante mucho tiempo<\/a>Cree en las suposiciones, pero a\u00fan no sigue la conclusi\u00f3n de su colega Bengio. \u00abLas m\u00e1quinas verdaderamente inteligentes no tienen ning\u00fan inter\u00e9s en esclavizar a los humanos\u00bb, argumenta, \u00abal igual que los humanos no quieren esclavizar a los cactus\u00bb.<\/p>\n

<\/p>\n

\n
\"El <\/div>
\n
\n

El Prof. J\u00fcrgen Schmidhuber es director cient\u00edfico del AI Institute Isdia en Lugano y lidera la iniciativa de AI de la Universidad King Abdullah en Thuwai, Arabia Saudita.<\/h2>\n

piedra clave<\/span><\/p>\n<\/div>\n<\/figcaption><\/figure>\n

<\/p>\n

Encuentra inveros\u00edmil el ejemplo del clip: \u00ab\u00bfPor qu\u00e9 deber\u00eda prevalecer una m\u00e1quina con un objetivo tan unilateral?\u00bb La falacia de este experimento mental es que asume una sola IA loca. Mucho m\u00e1s plausibles son los numerosos sistemas en competencia que se controlan entre s\u00ed. Una IA que tenga un objetivo tan descabellado y poco cooperativo como convertir todo en clips no tendr\u00eda ninguna posibilidad de ganar importancia en la competencia evolutiva de numerosas IA con objetivos diversos y desaparecer\u00eda r\u00e1pidamente de la escena.<\/p>\n

<\/p>\n

\u00bfEs plausible que las m\u00e1quinas se emancipen repentinamente?<\/span><\/h2>\n

<\/p>\n

Schmidhuber tampoco ve ning\u00fan conflicto de recursos fundamental entre las personas y las m\u00e1quinas inteligentes con objetivos autoimpuestos: \u00abEstamos limitados por la biosfera, que es peque\u00f1a en comparaci\u00f3n con el cosmos, pero las m\u00e1quinas no\u00bb. La IA m\u00e1s influyente proliferar\u00eda en el espacio, evolucionar\u00eda con los recursos all\u00ed y se replicar\u00eda en las f\u00e1bricas espaciales, dejando a los humanos en gran medida solos.<\/p>\n

<\/p>\n

Si bien eso suena plausible, \u00bfes un argumento lo suficientemente convincente como para justificar el riesgo que implica construir m\u00e1quinas abrumadoras y descontroladas? Para Schmidhuber s\u00ed. \u00c9l cree que el potencial que ofrecen las m\u00e1quinas inteligentes es demasiado grande para que la humanidad prescinda voluntariamente de \u00e9l.<\/p>\n

<\/p>\n

En su opini\u00f3n, el desarrollo de sistemas de IA cada vez m\u00e1s inteligentes y de autoaprendizaje conducir\u00e1 inicialmente a un tiempo glorioso lleno de innovaci\u00f3n y progreso para los humanos; durante este tiempo, las m\u00e1quinas a\u00fan podr\u00edan reprogramarse a voluntad, por ejemplo, apagando su impulso de aprender curiosamente ellos mismos.<\/p>\n

<\/p>\n

Pero Schmidhuber est\u00e1 convencido de que las IA verdaderamente inteligentes se emancipar\u00edan de los humanos a largo plazo y seguir\u00edan su propio camino. Cuando habla de ello, todo suena tan l\u00f3gico como la teor\u00eda de la evoluci\u00f3n de Darwin. <\/p>\n

<\/p>\n

Pero todav\u00eda hay una serie de investigadores que estar\u00edan en total desacuerdo con sus puntos de vista, o al menos est\u00e1n convencidos de que est\u00e1n parados en terreno inestable.<\/p>\n

<\/p>\n

Seguridad y \u00e9tica: las dos corrientes de preocupaciones de la IA<\/span><\/h2>\n

<\/p>\n

Toma a Anna Jobin por ejemplo. Como cient\u00edfica social, ha estado lidiando con cuestiones \u00e9ticas sobre la inteligencia artificial durante a\u00f1os y dice: \u00abLa inteligencia artificial general sigue siendo ciencia ficci\u00f3n\u00bb. Chat GPT tampoco cambia nada. \u201cSe entren\u00f3 un robot de texto; no hace falta decir que puede escribir supertextos. Un robot de im\u00e1genes crea excelentes im\u00e1genes. Y si ahora desarrollamos sistemas de armas de IA, entonces tendremos sistemas de armas muy poderosos\u00bb.<\/p>\n

<\/p>\n

\n
\"dr. <\/div>
\n

dr. Anna Jobin investiga y ense\u00f1a en el Instituto para la Interacci\u00f3n Hombre-M\u00e1quina de la Universidad de Friburgo y en el Instituto Alexander von Humboldt para Internet y Sociedad en Berl\u00edn.<\/h2>\n

<\/p>\n<\/figcaption><\/figure>\n

<\/p>\n

Jobin quiere tener discusiones concretas sobre qui\u00e9n puede construir y usar qu\u00e9 sistemas, cu\u00e1les son los requisitos necesarios y qu\u00e9 tipo de IA beneficiar\u00e1 a la sociedad. Parece un poco molesta por el debate sobre los robots asesinos vagamente definidos. \u00abPor supuesto, las m\u00e1quinas descontroladas podr\u00edan causar da\u00f1os. Pero hay muchos pasos en el camino hacia all\u00ed, y las personas est\u00e1n involucradas en cada caso\u201d.<\/p>\n

<\/p>\n

Una sociedad tambi\u00e9n puede optar por no desarrollar ciertas cosas, dice Jobin. Al menos en ese punto, est\u00e1 de acuerdo con algunos de los que advirtieron sobre la IA asesina, pero insiste en que esta decisi\u00f3n debe tomarse democr\u00e1ticamente y no solo en manos de las empresas tecnol\u00f3gicas.<\/p>\n

<\/p>\n

Acusaci\u00f3n de distracci\u00f3n de problemas concretos<\/span><\/h2>\n

<\/p>\n

Ella duda de su credibilidad y se\u00f1ala que trabajar\u00edan con la UE para suavizar las l\u00edneas rojas, como una prohibici\u00f3n general de la IA manipuladora o la vigilancia masiva a trav\u00e9s del reconocimiento facial. Por lo tanto, ve la discusi\u00f3n sobre una IA demasiado poderosa como una gran maniobra de distracci\u00f3n en vista de estos problemas que ya est\u00e1n surgiendo de la tecnolog\u00eda y para los cuales existen soluciones concretas.<\/p>\n

<\/p>\n

Ella no est\u00e1 sola con esta acusaci\u00f3n. Hay dos corrientes en el debate sobre los riesgos de la IA. Algunos se centran en riesgos m\u00e1s especulativos a largo plazo. El otro grupo se ocupa de los problemas de IA ya existentes, por ejemplo que algunas tecnolog\u00edas que ya est\u00e1n en el mercado funcionan mal, discriminan o pueden suponer un problema para la democracia. <\/p>\n

<\/p>\n

Muchos encontrar\u00e1n leg\u00edtimos ambos tipos de preocupaciones. B\u00e1sicamente tambi\u00e9n Jobin. Pero le molesta que los problemas especulativos est\u00e9n recibiendo mucha m\u00e1s atenci\u00f3n que otros temas que son igual de importantes desde su punto de vista.<\/p>\n

<\/p>\n

Chaos-GPT muestra: Sin personas, la IA todav\u00eda puede hacer poco<\/span><\/h2>\n

<\/p>\n

Pero una cosa tambi\u00e9n est\u00e1 clara: cualquiera que calcule seriamente que se construir\u00e1n sistemas de IA independientes en un futuro cercano tambi\u00e9n debe pensar en las consecuencias que se pueden esperar.<\/p>\n

<\/p>\n

Un experimento llamado Chaos-GPT muestra bastante bien cu\u00e1n lejos est\u00e1n los sistemas actuales de tales ideas. <\/p>\n

<\/p>\n

Chaos GPT se basa en Auto-GPT, un programa<\/a>, que \u00abconvierte\u00bb el chatbot GPT-4 en un asistente. Auto-GPT traduce las \u00f3rdenes escritas en objetivos intermedios formulados utilizando lenguaje AI y trata de lograrlos de forma independiente. Puede buscar y guardar informaci\u00f3n en Internet, descargar y ejecutar programas.<\/p>\n

<\/p>\n

No pas\u00f3 mucho tiempo antes de que alguien creara Chaos GPT: un asistente basado en Auto-GPT encargado de causar estragos y destrucci\u00f3n, dominar a la humanidad y manipularla a trav\u00e9s de las redes sociales.<\/p>\n

<\/p>\n

\n
\n
\n