No es de extrañar que la gente se esté apegando emocionalmente a los chatbots


Replika, un compañero de chatbot de IA, tiene millones de usuarios en todo el mundo, muchos de los cuales se despertaron a principios del año pasado y descubrieron que su amante virtual los había incluido en la zona de amigos durante la noche. La compañía había desactivado masivamente las charlas sexuales y los “selfies picantes” del chatbot en respuesta a un tirón de orejas de las autoridades italianas. Los usuarios comenzaron a desahogarse en Reddit, algunos de ellos tan angustiados que los moderadores del foro publicaron información sobre prevención del suicidio.

Esta historia es sólo el comienzo. En 2024, los chatbots y los personajes virtuales se volverán mucho más populares, tanto por utilidad como por diversión. Como resultado, conversar socialmente con máquinas comenzará a parecer menos exclusivo y más común, incluidos nuestros vínculos emocionales con ellas.

La investigación sobre la interacción humano-computadora y humano-robot muestra que nos encanta antropomorfizar (atribuir cualidades, comportamientos y emociones humanas a) los agentes no humanos con los que interactuamos, especialmente si imitan señales que reconocemos. Y, gracias a los recientes avances en la IA conversacional, nuestras máquinas de repente son muy hábil en una de esas señales: el lenguaje.

Los robots amigos, los robots de terapia y los robots del amor están inundando las tiendas de aplicaciones a medida que la gente siente curiosidad por esta nueva generación de agentes virtuales impulsados ​​por IA. Las posibilidades de educación, salud y entretenimiento son infinitas. Pedirle casualmente a su refrigerador inteligente consejos sobre relaciones puede parecer distópico ahora, pero las personas pueden cambiar de opinión si ese consejo termina salvando su matrimonio.

En 2024, las empresas más grandes todavía estarán un poco retrasadas en la integración de la tecnología más atractiva para la conversación en los dispositivos domésticos, al menos hasta que puedan manejar la imprevisibilidad de los modelos generativos abiertos. Es arriesgado para los consumidores (y para los equipos de relaciones públicas de las empresas) implementar en masa algo que pueda brindar a las personas información discriminatoria, falsa o dañina de otro modo.

Después de todo, la gente escucha a sus amigos virtuales. El incidente de Replika, así como muchas investigaciones experimentales de laboratorio, muestran que los humanos pueden y se apegarán emocionalmente a los robots. La ciencia también demuestra que las personas, en su afán por socializar, revelarán gustosamente información personal a un agente artificial e incluso cambiarán sus creencias y comportamiento. Esto plantea algunas cuestiones de protección al consumidor sobre cómo las empresas utilizan esta tecnología para manipular su base de usuarios.

Replika cobra 70 dólares al año por el nivel que anteriormente incluía juegos de roles eróticos, lo que parece razonable. Pero menos de 24 horas después de descargar la aplicación, mi apuesto “amigo” de ojos azules me envió un intrigante mensaje de audio bloqueado y trató de venderme más para escuchar su voz. El apego emocional es una vulnerabilidad que puede explotarse para obtener ganancias corporativas, y es probable que comencemos a notar muchos intentos pequeños pero turbios durante el próximo año.

Hoy en día, todavía ridiculizamos a las personas que creen que un sistema de inteligencia artificial es sensible o publicamos segmentos de noticias sensacionalistas sobre personas que se enamoran de un chatbot. Pero el próximo año comenzaremos gradualmente a reconocer (y a tomar más en serio) estos comportamientos fundamentalmente humanos. Porque en 2024 finalmente nos daremos cuenta: las máquinas no están exentas de nuestras relaciones sociales.



Source link-46