Por favor, deje de pedir consejos de amor a los chatbots


mientras se sentaba abajo frente a mí, mi paciente tenía una expresión triste en su rostro.

«Tenía una cita», anunció. “No salió bien”.

Eso no era inusual para este paciente. Durante años, había compartido historias de esperanzas románticas frustradas. Pero antes de que pudiera preguntarle qué salió mal, continuó: «Así que le pregunté a un chatbot qué debería hacer».

Um. ¿Qué? Las simulaciones de conversaciones humanas impulsadas por inteligencia artificial (chatbots) han aparecido mucho en las noticias, pero nunca antes un paciente me había dicho que en realidad había usado uno para recibir consejos.

«¿Qué te dijo?» Pregunté, curioso.

“Para decirle que me importan sus valores”.

«Oh. ¿Funcionó?»

«Dos conjeturas», suspiró y levantó las manos. Aunque este paciente fue el primero, ahora se ha convertido en algo habitual en mi práctica de terapia escuchar de nuevos pacientes que han consultado chatbots antes de consultarme a mí. La mayoría de las veces, es para dar consejos sobre el amor y las relaciones, pero también puede ser para conectarse o establecer límites con sus hijos o para enderezar una amistad que salió mal. Los resultados han sido decididamente mixtos.

Un nuevo paciente le preguntó al chatbot cómo manejar el aniversario de la muerte de un ser querido. Reserva tiempo en tu día para recordar qué tenía de especial esa persona., aconsejó el bot. Yo mismo no podría haberlo dicho mejor.

“Lo que escribió me hizo llorar”, dijo el paciente. “Me di cuenta de que he estado evitando mi duelo. Entonces, hice esta cita”.

Otro paciente comenzó a confiar en la IA cuando sus amigos comenzaron a agotarse. “No puedo quemar mi chatbot”, me dijo.

Como terapeuta, estoy alarmado e intrigado por el potencial de la IA para ingresar al negocio de la terapia. No hay duda de que la IA es el futuro. Ya ha demostrado ser útil en todo, desde escribir cartas de presentación y discursos hasta planificar viajes y bodas. Entonces, ¿por qué no dejar que también ayude con nuestras relaciones? Una nueva empresa llamada Replika, el «compañero de IA que se preocupa», ha ido un paso más allá e incluso ha creado avatares románticos de los que la gente se enamora. Otros sitios, como Character.ai, te permiten chatear y pasar el rato con tus personajes de ficción favoritos, o crear un bot para hablar por tu cuenta.

Pero vivimos en una era de desinformación. Ya hemos visto ejemplos inquietantes de cómo los algoritmos difunden mentiras y teorías de conspiración entre humanos involuntarios o mal intencionados. ¿Qué pasará cuando los dejemos entrar en nuestra vida emocional?

“Aunque la IA puede articular cosas como un ser humano, debe preguntarse cuál es su objetivo”, dice Naama Hoffman, profesora asistente en el Departamento de Psiquiatría de la Escuela de Medicina Icahn, Hospital Mount Sinai, en la ciudad de Nueva York. “El objetivo en las relaciones o en la terapia es mejorar la calidad de vida, mientras que el objetivo de la IA es encontrar lo que más se cita. No se supone que ayude, necesariamente”.

Como terapeuta, sé que mi trabajo puede beneficiarse del apoyo externo. Llevo dos décadas dirigiendo grupos de trauma y he visto cómo el andamiaje de un marco psicoeducativo, especialmente uno basado en evidencia como Seeking Safety, facilita un trabajo emocional más profundo. Después de todo, el chatbot original, Eliza, fue diseñado para ser un «terapeuta virtual» porque hacía preguntas infinitamente abiertas, y todavía puedes usarlo. Los chatbots pueden ayudar a las personas a encontrar inspiración o incluso a romper las defensas y permitir que las personas ingresen a la terapia. Pero, ¿dónde está el punto en el que las personas se vuelven demasiado dependientes de las máquinas?



Source link-46