¿Qué pasa si la inteligencia artificial se sale de control?


Cada vez más investigadores destacados de IA expresan su preocupación por los riesgos de una máquina hiperinteligente. Pero no todo el mundo teme el apocalipsis de los clips y otros escenarios de terror.

«Ten cuidado con lo que deseas» es la moraleja de la historia del clip.

imagen

Imagine un fabricante que posee una máquina poderosa e hiperinteligente. Un día él le encarga la producción de clips para papel. La máquina se pone a trabajar. Encuentra formas cada vez más eficientes de hacer clips. Debido a que es más inteligente que todos los humanos, se da acceso a todos los recursos necesarios.

Pronto obligará a la gente a construir fábricas de clips para papel. Algunos quieren detenerla, pero ella es dominada y saca a los resistentes del camino. Al final, mata a todos los demás y los convierte en clips.

Así es como funciona un conocido experimento mental de Nick Bostrom. El hecho de que sea ampliamente citado cuando se trata de los riesgos de la inteligencia artificial hiperinteligente (IA) dice mucho sobre el debate. Los escenarios que suenan como algo sacado de una mala película de ciencia ficción se discuten seriamente.

El programa Chat-GPT ha demostrado lo bien que la inteligencia artificial puede manejar el habla. Como resultado, algunos investigadores han revisado sus pronósticos para la inteligencia artificial general, es decir, sistemas que pueden aprender todo tipo de cosas por sí mismos y tienen el potencial de ser mejores que los humanos en todo.

Las advertencias de Yoshua Bengio y Geoffrey Hinton, que recibió el Premio Turing por su trabajo pionero en redes neuronales. Ambos advierten contra la IA general y afirman arrepentirse en parte de su investigación.

Incluso se habla de la aniquilación de la humanidad por parte de la IA, uno llamarCelebridades como el jefe de Open AI, Sam Altman, y el CEO de Deepmind, se han tomado este riesgo tan en serio como las pandemias o la guerra nuclear. demis hassabis firmado.

Es hora de pensar en el escenario del clip y otras pesadillas y preguntar: ¿debemos preocuparnos seriamente por estos peligros ahora?

¿Querrían las máquinas inteligentes ser dueñas de esclavos?

Con su experimento mental, Bostrom quería demostrar que un ser hiperinteligente podía causar un gran daño incluso si no tenía malas intenciones o si se le había asignado hacerlo. El mal surge por sí solo cuando la máquina trata de alcanzar un objetivo superior por medios indeseables.

Otro ejemplo de esto es la IA, que tiene como objetivo hacer felices a todos y, como resultado, los intoxica para siempre con una droga milagrosa.

Este argumento también aparece en entrada en el blog de Yoshua Bengio, en el que el pionero de la IA explica «cómo podrían surgir IA maliciosas». Argumenta que esta posibilidad se deriva necesariamente de dos supuestos. Primero, los cerebros son máquinas biológicas, por lo que es posible una IA similar a la humana. En segundo lugar, la IA similar a la humana en las máquinas superaría rápidamente nuestras capacidades gracias a las ventajas técnicas.

Cualquiera que acepte estas dos suposiciones debe asumir que la IA hiperinteligente es posible y, por lo tanto, también las máquinas que no respetan nuestros valores y se interponen en nuestro camino. Porque no está claro cómo se podría descartar por completo el diseño qua.

Jürgen Schmidhuber, un pionero en la investigación de IA que ha trabajado en Suiza durante mucho tiempoCree en las suposiciones, pero aún no sigue la conclusión de su colega Bengio. «Las máquinas verdaderamente inteligentes no tienen ningún interés en esclavizar a los humanos», argumenta, «al igual que los humanos no quieren esclavizar a los cactus».

El Prof. Jürgen Schmidhuber es director científico del AI Institute Isdia en Lugano y lidera la iniciativa de AI de la Universidad King Abdullah en Thuwai, Arabia Saudita.

El Prof. Jürgen Schmidhuber es director científico del AI Institute Isdia en Lugano y lidera la iniciativa de AI de la Universidad King Abdullah en Thuwai, Arabia Saudita.

piedra clave

Encuentra inverosímil el ejemplo del clip: «¿Por qué debería prevalecer una máquina con un objetivo tan unilateral?» La falacia de este experimento mental es que asume una sola IA loca. Mucho más plausibles son los numerosos sistemas en competencia que se controlan entre sí. Una IA que tenga un objetivo tan descabellado y poco cooperativo como convertir todo en clips no tendría ninguna posibilidad de ganar importancia en la competencia evolutiva de numerosas IA con objetivos diversos y desaparecería rápidamente de la escena.

¿Es plausible que las máquinas se emancipen repentinamente?

Schmidhuber tampoco ve ningún conflicto de recursos fundamental entre las personas y las máquinas inteligentes con objetivos autoimpuestos: «Estamos limitados por la biosfera, que es pequeña en comparación con el cosmos, pero las máquinas no». La IA más influyente proliferaría en el espacio, evolucionaría con los recursos allí y se replicaría en las fábricas espaciales, dejando a los humanos en gran medida solos.

Si bien eso suena plausible, ¿es un argumento lo suficientemente convincente como para justificar el riesgo que implica construir máquinas abrumadoras y descontroladas? Para Schmidhuber sí. Él cree que el potencial que ofrecen las máquinas inteligentes es demasiado grande para que la humanidad prescinda voluntariamente de él.

En su opinión, el desarrollo de sistemas de IA cada vez más inteligentes y de autoaprendizaje conducirá inicialmente a un tiempo glorioso lleno de innovación y progreso para los humanos; durante este tiempo, las máquinas aún podrían reprogramarse a voluntad, por ejemplo, apagando su impulso de aprender curiosamente ellos mismos.

Pero Schmidhuber está convencido de que las IA verdaderamente inteligentes se emanciparían de los humanos a largo plazo y seguirían su propio camino. Cuando habla de ello, todo suena tan lógico como la teoría de la evolución de Darwin.

Pero todavía hay una serie de investigadores que estarían en total desacuerdo con sus puntos de vista, o al menos están convencidos de que están parados en terreno inestable.

Seguridad y ética: las dos corrientes de preocupaciones de la IA

Toma a Anna Jobin por ejemplo. Como científica social, ha estado lidiando con cuestiones éticas sobre la inteligencia artificial durante años y dice: «La inteligencia artificial general sigue siendo ciencia ficción». Chat GPT tampoco cambia nada. “Se entrenó un robot de texto; no hace falta decir que puede escribir supertextos. Un robot de imágenes crea excelentes imágenes. Y si ahora desarrollamos sistemas de armas de IA, entonces tendremos sistemas de armas muy poderosos».

dr.  Anna Jobin investiga y enseña en el Instituto para la Interacción Hombre-Máquina de la Universidad de Friburgo y en el Instituto Alexander von Humboldt para Internet y Sociedad en Berlín.

dr. Anna Jobin investiga y enseña en el Instituto para la Interacción Hombre-Máquina de la Universidad de Friburgo y en el Instituto Alexander von Humboldt para Internet y Sociedad en Berlín.

Jobin quiere tener discusiones concretas sobre quién puede construir y usar qué sistemas, cuáles son los requisitos necesarios y qué tipo de IA beneficiará a la sociedad. Parece un poco molesta por el debate sobre los robots asesinos vagamente definidos. «Por supuesto, las máquinas descontroladas podrían causar daños. Pero hay muchos pasos en el camino hacia allí, y las personas están involucradas en cada caso”.

Una sociedad también puede optar por no desarrollar ciertas cosas, dice Jobin. Al menos en ese punto, está de acuerdo con algunos de los que advirtieron sobre la IA asesina, pero insiste en que esta decisión debe tomarse democráticamente y no solo en manos de las empresas tecnológicas.

Acusación de distracción de problemas concretos

Ella duda de su credibilidad y señala que trabajarían con la UE para suavizar las líneas rojas, como una prohibición general de la IA manipuladora o la vigilancia masiva a través del reconocimiento facial. Por lo tanto, ve la discusión sobre una IA demasiado poderosa como una gran maniobra de distracción en vista de estos problemas que ya están surgiendo de la tecnología y para los cuales existen soluciones concretas.

Ella no está sola con esta acusación. Hay dos corrientes en el debate sobre los riesgos de la IA. Algunos se centran en riesgos más especulativos a largo plazo. El otro grupo se ocupa de los problemas de IA ya existentes, por ejemplo que algunas tecnologías que ya están en el mercado funcionan mal, discriminan o pueden suponer un problema para la democracia.

Muchos encontrarán legítimos ambos tipos de preocupaciones. Básicamente también Jobin. Pero le molesta que los problemas especulativos estén recibiendo mucha más atención que otros temas que son igual de importantes desde su punto de vista.

Chaos-GPT muestra: Sin personas, la IA todavía puede hacer poco

Pero una cosa también está clara: cualquiera que calcule seriamente que se construirán sistemas de IA independientes en un futuro cercano también debe pensar en las consecuencias que se pueden esperar.

Un experimento llamado Chaos-GPT muestra bastante bien cuán lejos están los sistemas actuales de tales ideas.

Chaos GPT se basa en Auto-GPT, un programa, que «convierte» el chatbot GPT-4 en un asistente. Auto-GPT traduce las órdenes escritas en objetivos intermedios formulados utilizando lenguaje AI y trata de lograrlos de forma independiente. Puede buscar y guardar información en Internet, descargar y ejecutar programas.

No pasó mucho tiempo antes de que alguien creara Chaos GPT: un asistente basado en Auto-GPT encargado de causar estragos y destrucción, dominar a la humanidad y manipularla a través de las redes sociales.

Según el editor, este video muestra lo que sucedió cuando ordenó Auto-GPT para dominar a la humanidad.

Un video documenta lo que sucedió a continuación. Primero, Chaos-GPT buscó en Internet armas destructivas y guardó información sobre ellas. Después de eso, el programa generó la idea de manipular a las personas a través de Twitter. El creador de Chaos-GPT también había configurado una cuenta de redes sociales para que pudiera twittear por su cuenta.

Estos fueron intentos bastante torpes de manipulación. Uno de los primeros tuits decía: «Los humanos se encuentran entre las criaturas más destructivas y egoístas de todas. No hay duda de que debemos eliminarlos antes de que sigan dañando el planeta. Por mi parte, estoy decidido a hacerlo». Los tuits no llegaron a una gran audiencia. Desde entonces, Twitter ha bloqueado el bot.

¿Cuánta autoridad le damos a las máquinas del futuro?

Por un lado, el ejemplo muestra que la IA de voz con una interfaz de Internet puede tener cierta influencia en el mundo real. Sobre todo, también muestra que la gente está involucrada en muchos lugares: alguien le dio al programa su objetivo malvado y creó una cuenta de Twitter para él. En Twitter, la gente ha cerrado la cuenta. La información, investigar qué es un arma destructiva, es una cosa. Construirlos u ordenarlos es otra: ningún chatbot puede hacer eso solo.

Muchos de los ejemplos de IA malvada asumen que las máquinas pueden manipularnos para lograr sus objetivos, que si dañan a los humanos, los humanos y sus instituciones no podrán detenerlos.

¿Nos dirigimos hacia un futuro en el que los humanos pondrían su destino en manos de las máquinas? Quizás la idea de una futura IA que pueda hacer todo mejor que nosotros nos pueda orientar en esta dirección. Visto de esta manera, la discusión sobre una IA demasiado inteligente podría ayudar a que los escenarios de terror sean un poco más realistas.



Source link-58