No tienes que ser un imbécil para resistir a los bots


Había una vez una asistente virtual llamada Sra. Dewey, una atractiva bibliotecaria interpretada por Janina Gavankar que lo ayudó con sus consultas sobre el primer intento de Microsoft en un motor de búsqueda. Ms. Dewey se lanzó en 2006, completo con más de 600 líneas de diálogo grabado. Se adelantó a su tiempo en algunos aspectos, pero un ejemplo particularmente pasado por alto fue capturado por la estudiosa de la información Miriam Sweeney en su tesis doctoral de 2013, donde detalló las implicaciones raciales y de género de las respuestas de Dewey. Eso incluía líneas como: «Oye, si puedes entrar a tu computadora, puedes hacerme lo que quieras». O cómo la búsqueda de «mamadas» hizo que se reprodujera un clip de ella comiendo un plátano, o el ingreso de términos como «gueto» la hizo interpretar un rap con letras que incluían gemas como «No, diente de oro, ghetto-fabulous mutha-fucker BEEP pasos a esta pieza de [ass] BIP.» Sweeney analiza lo obvio: que Dewey fue diseñado para atender a un usuario masculino blanco y heterosexual. Después de todo, los blogs de la época elogiaban el coqueteo de Dewey.

Microsoft desconectó a la Sra. Dewey en 2009, pero los críticos posteriores, incluido yo mismo, identificarían un patrón similar de prejuicio en la forma en que algunos usuarios interactuaban con asistentes virtuales como Siri o Cortana. Cuando los ingenieros de Microsoft revelaron que programaron a Cortana para rechazar con firmeza las consultas o avances sexuales, hubo una gran indignación en Reddit. Una publicación altamente votada decía: “¡¿Estas jodidas personas hablan en serio?! ¡Todo su propósito es hacer lo que la gente le diga! Oye, perra, agrega esto a mi calendario… El día que Cortana se convierta en una ‘mujer independiente’ es el día en que el software se vuelve jodidamente inútil”. Las críticas a tal comportamiento florecieron, incluso por parte de su humilde corresponsal.

Ahora, en medio del retroceso contra ChatGPT y sus similares, el péndulo ha retrocedido con fuerza, y se nos advierte contra empatizando con estas cosas. Es un punto que planteé a raíz del fiasco de LaMDA AI el año pasado: un bot no necesita ser inteligente para que podamos antropomorfizarlo, y ese hecho será explotado por los especuladores. Mantengo esa advertencia. Pero algunos han ido más allá al sugerir que las críticas anteriores a las personas que abusaron de sus asistentes virtuales son habilitaciones ingenuas en retrospectiva. ¡Quizás los hombres que repetidamente llamaron a Cortana «perra» estaban en algo!

Puede que te sorprenda saber que este no es el caso. Las críticas anteriores al abuso de la IA no solo fueron correctas, sino que anticiparon el panorama digital más peligroso al que nos enfrentamos ahora. La verdadera razón por la que la crítica ha cambiado de «las personas son demasiado malas con los bots» a «las personas son demasiado amables con ellos» es que la economía política de la IA ha cambiado repentina y drásticamente, y junto con ella, los argumentos de venta de las empresas tecnológicas. Donde una vez nos vendieron los bots como el sirviente perfecto, ahora nos los venderán como nuestro mejor amigo. Pero en cada caso, la respuesta patológica a cada generación de bots ha requerido implícitamente que los humanicemos. Los dueños del bot siempre han armado nuestros peores y mejores impulsos.

Una verdad contraria a la intuición sobre la violencia es que, aunque deshumaniza, en realidad requiere que el perpetrador te vea como humano. Es una realidad sombría, pero todos, desde los criminales de guerra hasta los asquerosos en el pub, hasta cierto punto, se están volviendo locos con la idea de que sus víctimas sienten dolor. La deshumanización no es la incapacidad de ver a alguien como humano, sino el deseo de ver a alguien como menos que humano y actuar en consecuencia. Así, en cierto nivel, era precisamente el grado en que las personas confundían a sus asistentes virtuales con seres humanos reales lo que les animaba a abusar de ellos. De lo contrario, no sería divertido. Eso nos lleva al momento presente.

la generacion anterior de IA se nos vendió como sirvientes perfectos: un PA sofisticado o tal vez la computadora Starship Enterprise de Majel Barrett. Cedente, omnisciente, siempre listo para servir. Los nuevos motores de búsqueda de chatbots también tienen algunas de las mismas asociaciones, pero a medida que evolucionan, también se nos venderán como nuestros nuevos confidentes, incluso nuestros nuevos terapeutas.



Source link-46