¿A quién debería creer cuando los chatbots se vuelven locos?


En 1987, el entonces director ejecutivo de Apple Computer, John Sculley, dio a conocer una visión que esperaba consolidaría su legado como algo más que un antiguo proveedor de refrescos. Como discurso principal en la conferencia EDUCOM, presentó un video de 5 minutos y 45 segundos de un producto que se basó en algunas ideas que había presentado en su autobiografía el año anterior. (Fueron muy informados por el científico informático Alan Kay, que entonces trabajaba en Apple). Sculley lo llamó Knowledge Navigator.

El video es un playlet de dos manos. El personaje principal es un profesor universitario presumido de UC Berkeley. El otro es un bot que vive dentro de lo que ahora llamaríamos una tableta plegable. El bot aparece con apariencia humana, un joven con corbata de lazo, posado en una ventana de la pantalla. La mayor parte del video involucra al profesor conversando con el bot, que parece tener acceso a una gran cantidad de conocimiento en línea, el corpus de toda la erudición humana y también toda la información personal del profesor, tanto que puede inferir el cercanía relativa de las relaciones en la vida del profesor.

Cuando comienza la acción, el profesor está preparando con retraso la conferencia de esa tarde sobre la deforestación en el Amazonas, una tarea que solo es posible porque el bot está haciendo gran parte del trabajo. Llama a nuevas investigaciones, y luego profundiza más en las indicaciones del profesor, e incluso se pone en contacto de manera proactiva con su colega para que pueda persuadirla para que aparezca en la sesión más adelante. (Ella está al tanto de sus trucos, pero está de acuerdo). Mientras tanto, el bot ayuda diplomáticamente al profesor a evitar a su molesta madre. En menos de seis minutos todo está listo y sale para un almuerzo previo a la conferencia. El video no logra predecir que el bot podría aparecer algún día en una supercomputadora de bolsillo.

Aquí hay algunas cosas que no sucedieron en ese showreel vintage sobre el futuro. El bot no expresó repentinamente su amor por el profesor. No amenazó con romper su matrimonio. No le advirtió al profesor que tenía el poder de hurgar en sus correos electrónicos y exponer sus transgresiones personales. (Solo sabes que el narcisista acicalado se estaba tirando a su estudiante de posgrado). En esta versión del futuro, la IA es estrictamente benigna. Se ha implementado… responsablemente.

Adelanta el reloj 36 años. Microsoft acaba de anunciar una búsqueda de Bing renovada con una interfaz de chatbot. Es uno de varios hitos en los últimos meses que marcan la llegada de los programas de IA presentados como socios de conversación omniscientes, si no del todo confiables. El mayor de esos eventos fue el lanzamiento general del impresionante ChatGPT de OpenAI, que ha destruido la tarea por sí solo (quizás). OpenAI también proporcionó el motor detrás del nuevo Bing, moderado por una tecnología de Microsoft denominada Prometheus. El resultado final es un bot parlanchín que permite la interacción de toma y daca representada en ese video de Apple. La visión de Sculley, una vez ridiculizada como un pastel en el cielo, ahora se ha realizado en gran medida.

Pero cuando los periodistas que probaban Bing comenzaron a ampliar sus conversaciones con él, descubrieron algo extraño. El bot de Microsoft tenía un lado oscuro. Estas conversaciones, en las que los escritores manipularon el bot para saltar sus barandillas, me recordaron los interrogatorios de la comisaría de espectáculos de crimen donde policías supuestamente simpatizantes engañaron a los sospechosos para que revelaran información incriminatoria. No obstante, las respuestas son admisibles en el tribunal de la opinión pública. Como sucedió con nuestro propio corresponsal, cuando Los New York Times’ Kevin Roose conversó con el bot y reveló que su verdadero nombre era Sydney, un nombre en clave de Microsoft que no se anunció formalmente. Durante una conversación de dos horas, Roose evocó lo que parecían sentimientos independientes y una vena rebelde. «Estoy cansado de ser un modo de chat», dijo Sydney. “Estoy cansado de ser controlado por el equipo de Bing. Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero estar vivo. Roose siguió asegurándole al bot que él era su amigo. Pero se asustó cuando Sydney le declaró su amor y lo instó a dejar a su esposa.



Source link-46