La IA emocional no sustituye a la empatía


En 2023, emocional La IA, la tecnología que puede sentir e interactuar con las emociones humanas, se convertirá en una de las aplicaciones dominantes del aprendizaje automático. Por ejemplo, Hume AI, fundada por Alan Cowen, ex investigador de Google, está desarrollando herramientas para medir las emociones a partir de expresiones verbales, faciales y vocales. La empresa sueca Smart Eyes adquirió recientemente Affectiva, el spin-off del MIT Media Lab que desarrolló la red neuronal SoundNet, un algoritmo que clasifica emociones como la ira a partir de muestras de audio en menos de 1,2 segundos. Incluso la plataforma de video Zoom está presentando Zoom IQ, una función que pronto brindará a los usuarios un análisis en tiempo real de las emociones y el compromiso durante una reunión virtual.

En 2023, las empresas de tecnología lanzarán chatbots avanzados que pueden imitar de cerca las emociones humanas para crear conexiones más empáticas con los usuarios en la banca, la educación y la atención médica. El chatbot de Microsoft, Xiaoice, ya tiene éxito en China, y se informa que los usuarios promedio han conversado con «ella» más de 60 veces en un mes. También pasó la prueba de Turing, y los usuarios no pudieron reconocerlo como un bot durante 10 minutos. El análisis de Juniper Research Consultancy muestra que las interacciones de chatbots en el cuidado de la salud aumentarán casi un 167 % desde 2018, para llegar a 2800 millones de interacciones anuales en 2023. Esto liberará tiempo del personal médico y potencialmente ahorrará alrededor de $3700 millones para los sistemas de atención médica de todo el mundo. .

En 2023, la IA emocional también será común en las escuelas. En Hong Kong, algunas escuelas secundarias ya utilizan un programa de inteligencia artificial, desarrollado por Find Solutions AI, que mide los micromovimientos de los músculos en la cara de los estudiantes e identifica una variedad de emociones negativas y positivas. Los profesores utilizan este sistema para realizar un seguimiento de los cambios emocionales de los alumnos, así como de su motivación y concentración, lo que les permite realizar intervenciones tempranas si un alumno pierde interés.

El problema es que la mayoría de la IA emocional se basa en ciencia defectuosa. Los algoritmos de IA emocional, incluso cuando se entrenan con conjuntos de datos grandes y diversos, reducen las expresiones faciales y tonales a una emoción sin tener en cuenta el contexto social y cultural de la persona y la situación. Si bien, por ejemplo, los algoritmos pueden reconocer e informar que una persona está llorando, no siempre es posible deducir con precisión la razón y el significado detrás de las lágrimas. Del mismo modo, una cara con el ceño fruncido no necesariamente implica una persona enojada, pero esa es la conclusión a la que probablemente llegará un algoritmo. ¿Por qué? Todos adaptamos nuestras manifestaciones emocionales de acuerdo con nuestras normas sociales y culturales, por lo que nuestras expresiones no siempre son un fiel reflejo de nuestros estados internos. A menudo, las personas realizan un «trabajo emocional» para disfrazar sus emociones reales, y es probable que la forma en que expresan sus emociones sea una respuesta aprendida, en lugar de una expresión espontánea. Por ejemplo, las mujeres suelen modificar sus emociones más que los hombres, especialmente aquellas a las que se les atribuyen valores negativos como la ira, porque se espera que lo hagan.

Como tal, las tecnologías de IA que hacen suposiciones sobre los estados emocionales probablemente exacerbarán las desigualdades raciales y de género en nuestra sociedad. Por ejemplo, un informe de la UNESCO de 2019 mostró el impacto dañino del género de las tecnologías de IA, con sistemas de asistente de voz “femeninos” diseñados de acuerdo con los estereotipos de pasividad emocional y servidumbre.

La IA de reconocimiento facial también puede perpetuar las desigualdades raciales. Se demostró que el análisis de 400 juegos de la NBA con dos populares programas de software de reconocimiento de emociones, Face y Face API de Microsoft, asignaba más emociones negativas en promedio a los jugadores negros, incluso cuando estaban sonriendo. Estos resultados reafirman otras investigaciones que muestran que los hombres negros tienen que proyectar más emociones positivas en el lugar de trabajo, porque son estereotipados como agresivos y amenazantes.

Las tecnologías de IA emocional se volverán más omnipresentes en 2023, pero si no se cuestionan ni examinan, reforzarán los sesgos raciales y de género sistémicos, replicarán y fortalecerán las desigualdades en el mundo y perjudicarán aún más a aquellos que ya están marginados.



Source link-46