Para algunas personas autistas, ChatGPT es un salvavidas


La flexibilidad del chatbot también viene con algunos problemas sin resolver. Puede producir respuestas sesgadas, impredecibles y, a menudo, fabricadas, y se basa en parte en información personal extraída sin permiso, lo que plantea problemas de privacidad.

Goldkind aconseja que las personas que recurran a ChatGPT deben estar familiarizadas con sus términos de servicio, comprender los conceptos básicos de cómo funciona (y cómo la información compartida en un chat puede no permanecer privada) y tener en cuenta sus limitaciones, como su tendencia a fabricar información. Young dijo que han pensado en activar las protecciones de privacidad de datos para ChatGPT, pero también creen que su perspectiva como padre autista, trans y soltero podría ser información beneficiosa para el chatbot en general.

Al igual que muchas otras personas, las personas autistas pueden encontrar conocimiento y empoderamiento en una conversación con ChatGPT. Para algunos, los pros superan a los contras.

Maxfield Sparrow, que es autista y facilita grupos de apoyo para personas autistas y transgénero, ha descubierto que ChatGPT es útil para desarrollar material nuevo. Muchas personas autistas luchan con los rompehielos convencionales en sesiones grupales, ya que los juegos sociales están diseñados principalmente para personas neurotípicas, dice Sparrow. Así que pidieron al chatbot que presentara ejemplos que funcionaran mejor para las personas autistas. Después de un poco de ida y vuelta, el chatbot escupió: «Si fueras el clima, ¿qué tipo de clima serías?»

Sparrow dice que es el inicio perfecto para el grupo: sucinto y relacionado con el mundo natural, con el que Sparrow dice que un grupo neurodivergente puede conectarse. El chatbot también se ha convertido en una fuente de consuelo para cuando Sparrow está enfermo y para otros consejos, como cómo organizar su rutina matutina para ser más productivo.

La terapia con chatbots es un concepto que se remonta a décadas. El primer chatbot, ELIZA, era un bot de terapia. Surgió en la década de 1960 del Laboratorio de Inteligencia Artificial del MIT y se inspiró en la terapia Rogeriana, en la que un consejero reafirma lo que un cliente le dice, a menudo en forma de pregunta. El programa no empleaba la IA tal como la conocemos hoy en día, pero a través de la repetición y la coincidencia de patrones, sus respuestas escritas daban a los usuarios la impresión de que estaban hablando con algo que los entendía. A pesar de haber sido creado con la intención de demostrar que las computadoras no podían reemplazar a los humanos, ELIZA cautivó a algunos de sus «pacientes», quienes entablaron intensas y extensas conversaciones con el programa.

Más recientemente, los chatbots con respuestas guiadas por IA, similares a Siri de Apple, se han vuelto ampliamente disponibles. Entre los más populares se encuentra un chatbot diseñado para desempeñar el papel de un terapeuta real. Woebot se basa en prácticas de terapia cognitiva conductual y experimentó un aumento en la demanda durante la pandemia a medida que más personas que nunca buscaron servicios de salud mental.

Pero debido a que esas aplicaciones tienen un alcance más limitado y brindan respuestas programadas, la conversación más rica de ChatGPT puede sentirse más efectiva para aquellos que intentan resolver problemas sociales complejos.

Margaret Mitchell, científica en jefe de ética en la startup Hugging Face, que desarrolla modelos de IA de código abierto, sugiere que las personas que enfrentan problemas más complejos o angustia emocional severa deben limitar el uso de chatbots. “Podría conducir a direcciones de discusión que son problemáticas o estimulan el pensamiento negativo”, dice ella. “El hecho de que no tengamos control total sobre lo que estos sistemas pueden decir es un gran problema”.



Source link-46