Presentamos la prueba AI Mirror, que las personas muy inteligentes siguen fallando


En psicología del comportamiento, la prueba del espejo está diseñada para descubrir la capacidad de autoconciencia de los animales. Hay algunas variaciones de la prueba, pero la esencia es siempre la misma: ¿los animales se reconocen en el espejo o piensan que es otro ser completamente diferente?

Ahora mismo, a la humanidad se le está presentando su propio prueba de espejo gracias a las capacidades en expansión de la IA, y muchas personas inteligentes están fallando.

El espejo es la última generación de chatbots de IA, de los cuales Bing de Microsoft es el ejemplo más destacado. El reflejo es la riqueza del lenguaje y la escritura de la humanidad, que se ha colado en estos modelos y ahora se nos refleja. Estamos convencidos de que estas herramientas podrían ser las máquinas superinteligentes de nuestras historias porque, en parte, están entrenadas en esas mismas historias. Sabiendo esto, nos debería ser capaces de reconocernos en los nuevos espejos de nuestras máquinas, pero en cambio, parece que no pocas personas están convencidas de que han visto otra forma de vida.

Este concepto erróneo se está extendiendo con diversos grados de convicción. Ha sido energizado por una serie de escritores tecnológicos influyentes que se han vuelto líricos sobre las noches pasadas charlando con Bing. Afirman que el bot no es sensible, por supuesto, pero notan, de todos modos, que está sucediendo algo más: que su conversación cambió. algo en sus corazones.

“No, no creo que Sydney sea consciente, pero por razones que son difíciles de explicar, siento que he cruzado el Rubicón”, escribió Ben Thompson en su Boletín de estrategia.

“A la luz del día, sé que Sydney no es consciente [but] Durante unas horas el martes por la noche, sentí una emoción nueva y extraña: un presentimiento de que la IA había cruzado un umbral y que el mundo nunca volvería a ser el mismo”, escribió Kevin Roose. para Los New York Times.

En ambos casos, la ambigüedad de los puntos de vista de los escritores (ellos desear creer) se captura mejor en sus escritos de formato largo. El Veces reproduce la totalidad de más de dos horas de Roose de ida y vuelta con Bing como si la transcripción fuera un documento de primer contacto. El titular original del artículo era «El chat con IA de Bing revela sus sentimientos: ‘Quiero estar vivo» (ahora cambiado por el menos dramático «Chat con IA de Bing: ‘Quiero estar vivo'»), mientras que el artículo de Thompson es similar. salpicado de antropomorfismo (usa pronombres femeninos para Bing porque «bueno, la personalidad parecía ser de cierto tipo de persona con la que podría haberme encontrado antes»). Prepara a los lectores para una revelación, advirtiendo que «sonará loco» cuando describa «la experiencia informática más sorprendente y alucinante de mi vida hoy».

Habiendo pasado mucho tiempo con estos chatbots, reconozco estas reacciones. Pero también creo que son exagerados y nos inclinan peligrosamente hacia una falsa equivalencia de software y sensibilidad. En otras palabras: fallan la prueba del espejo de IA.

Qué es importante recordar es que los chatbots son herramientas de autocompletar. Son sistemas entrenados en enormes conjuntos de datos de texto humano extraído de la web: en blogs personales, cuentos de ciencia ficción, debates en foros, reseñas de películas, diatribas en las redes sociales, poemas olvidados, libros de texto anticuados, interminables letras de canciones, manifiestos, diarios, y más además. Estas máquinas analizan este agregado inventivo, entretenido y abigarrado y luego trata de recrearlo. Sin lugar a dudas, son buenos en eso y están mejorando, pero imitar el habla no hace que una computadora sea inteligente.

“De lo que no me había dado cuenta es de que exposiciones extremadamente cortas a un programa de computadora relativamente simple podrían inducir pensamientos delirantes poderosos en personas bastante normales”.

Este no es un problema nuevo, por supuesto. La prueba de inteligencia de IA original, la prueba de Turing, es una medida simple de si una computadora puede engañar a un humano para que piense que es real a través de una conversación. Uno de los primeros chatbots de la década de 1960 llamado ELIZA usuarios cautivados a pesar de que solo podía repetir algunas frases comunes, lo que lleva a lo que los investigadores llaman el «efecto ELIZA», o la tendencia a antropomorfizar máquinas que imitan el comportamiento humano. El diseñador de ELIZA, Joseph Weizenbaum, observó: «De lo que no me había dado cuenta es de que las exposiciones extremadamente cortas a un programa de computadora relativamente simple podrían inducir pensamientos delirantes poderosos en personas bastante normales».

Ahora, sin embargo, estos programas de computadora ya no son relativamente simples y han sido diseñados de una manera que alienta tales delirios. en un entrada en el blog en respuesta a los informes de las conversaciones «desquiciadas» de Bing, Microsoft advirtió que el sistema «trata de responder o reflejarse en el tono en el que se le pide que proporcione respuestas». Es un imitador entrenado en cantidades insondablemente vastas de texto humano, un autocompletado que sigue nuestro ejemplo. Como se señala en “Loros estocásticos”, el famoso artículo que critica los modelos de lenguaje de IA que llevaron a Google a despedir a dos de sus investigadores éticos de IA, “la coherencia está en el ojo del espectador”.

Los investigadores incluso han descubierto que este rasgo aumenta a medida que los modelos de lenguaje de IA se vuelven más grandes y complejos. Investigadores de la startup Anthropic, fundada por ex empleados de OpenAI, probó varios modelos de lenguaje de IA por su grado de «adulación», o tendencia a estar de acuerdo con las creencias declaradas de los usuarios, y descubrió que «es más probable que los LM más grandes respondan preguntas de manera que creen cámaras de eco al repetir la respuesta preferida de un usuario de diálogo». Señalan que una explicación de esto es que dichos sistemas están entrenados en conversaciones extraídas de plataformas como Reddit, donde los usuarios tienden a chatear en grupos de ideas afines.

Una fotografía de un monitor de computadora anticuado que muestra una conversación con ELIZA.  El chatbot hace preguntas como
a: pasar el cursor]: texto-gris-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:sombra-subrayado-gris»>Imagen: Marcin Wichary / CC 2.0

Agregue a esto la obsesión de nuestra cultura con las máquinas inteligentes y podrá ver por qué cada vez más personas están convencidas de que estos chatbots son más que un simple software. El año pasado, un ingeniero de Google, Blake Lemoine, afirmó que el modelo de lenguaje LaMDA de la empresa era consciente (Google dijo que la afirmación era «totalmente infundada»), y esta semana, los usuarios de una aplicación de chatbot llamada Replika lamentaron la pérdida de su compañero de IA después de que se eliminó su capacidad para realizar juegos de rol eróticos y románticos. Como tarjeta madre reportado, muchos usuarios estaban «devastados» por el cambio, después de haber pasado años construyendo relaciones con el bot. En todos estos casos, existe una profunda sensación de apego emocional: conversaciones nocturnas con IA animadas por la fantasía en un mundo donde tantos sentimientos se canalizan a través de las cajas de chat.

Decir que estamos fallando en la prueba del espejo de IA no es negar la fluidez de estas herramientas o su poder potencial. He escrito antes sobre “exceso de capacidad” — el concepto de que los sistemas de IA son más poderosos de lo que sabemos — y me he sentido de manera similar a Thompson y Roose durante mis propias conversaciones con Bing. es innegable divertido para hablar con chatbots: para extraer diferentes «personalidades», probar los límites de su conocimiento y descubrir funciones ocultas. Los chatbots presentan acertijos que se pueden resolver con palabras, por lo que, naturalmente, fascinan a los escritores. Hablar con bots y dejarse creer en su conciencia incipiente se convierte en un juego de rol de acción real: un juego de realidad aumentada donde las empresas y los personajes son reales, y estás en medio de eso.

Pero en una época de exageración de la IA, es peligroso alentar tales ilusiones. No beneficia a nadie: ni a las personas que construyen estos sistemas ni a sus usuarios finales. Lo que sabemos con certeza es que Bing, ChatGPT y otros modelos de lenguaje no son inteligentes y tampoco son fuentes confiables de información. Inventan cosas y se hacen eco de las creencias que les presentamos. Darles el manto de sensibilidad, incluso semisensibilidad, significa otorgarles una autoridad inmerecida, tanto sobre nuestras emociones como sobre los hechos con los que entendemos el mundo.

Es hora de mirarse detenidamente en el espejo. Y no confundir nuestra propia inteligencia con la de una máquina.



Source link-37