El organismo de control del Reino Unido emite una advertencia contra la tecnología de análisis emocional


Una foto de una pantalla de computadora que ejecuta el software

Una foto de una pantalla de computadora que ejecuta el software «Real Time Face Detector» muestra el análisis de expresiones de los visitantesed y explicado en real-tiempo en el stand del Instituto Fraunhofer en la feria comercial CeBIT en Hannover el 6 de marzo de 2008. El Real Time Face Detector es un módulo de software que se puede utilizar para la detección rápida de rostros en video secuencias e imágenes individuales.
Foto: Juan MacDougal (imágenes falsas)

El jefe del organismo independiente de vigilancia de la privacidad del Reino Unido teme que los esfuerzos muy publicitados para utilizar la IA para detectar los estados emocionales de las personas simplemente no funcionen, ni ahora, ni posiblemente nunca.

En el primer aviso de este tipo, la Oficina del Comisionado de Información, el principal organismo de control de la privacidad de Gran Bretaña, emitió un mordaz advertencia a las empresas contra el uso de los llamados “emocionales análisis” tecnología, argumentando que todavía es “inmadura” y que los riesgos asociados con ella superan con creces cualquier beneficio potencial.

“Los desarrollos en el mercado de biometría e IA emocional son inmaduros. Es posible que aún no funcionen, o de hecho nunca”, escribió el comisionado adjunto de ICO, Stephen Bonner. “Si bien hay oportunidades presentes, los riesgos son actualmente mayores. En el ICO, nos preocupa que el análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre una persona que sean inexactos y conduzcan a la discriminación”.

El análisis de emociones, también conocido como reconocimiento de emociones o reconocimiento de afectos, sigue principios similares a técnicas biométricas más conocidas como el reconocimiento facial, pero podría decirse que incluso menos de confianza. Los sistemas de análisis emocional o reconocimiento emocional escanean las expresiones faciales, los tonos de voz u otras características físicas de las personas y luego intentan usar esos puntos de datos para inferir estados mentales o predecir cómo se siente alguien.

La profesora de investigación de USC Annenberg, Kate Crawford, detalla algunas de las trampas inherentes de ese enfoque en su libro de 2021 Atlas de IA.

“La dificultad de automatizar la conexión entre los movimientos faciales y las categorías emocionales básicas lleva a la pregunta más amplia de si las emociones pueden agruparse adecuadamente en un pequeño número de categorías discretas”, escribe Crawford. “Existe el tema obstinado de que la expresión facial los intentos indican poco sobre nuestros estados interiores honestos, como puede confirmar cualquiera que haya sonreído sin sentirse verdaderamente feliz”.

Bonner continuó diciendo que «las únicas implementaciones biométricas sostenibles» son aquellas que son completamente funcionales, responsables y «respaldadas por la ciencia». Aunque el ICO ha emitido advertencias sobre tecnologías específicas en el pasado, incluidas algunas que pertenecen a la categoría de biometría, Bonner dicho El guardián El aviso de esta semana marca la primera advertencia general contra la ineficacia de toda una tecnología. En ese artículo, Bonner pasó a describir los intentos de utilizar la biometría para detectar emociones como «pseudocientíficos».

“Desafortunadamente, estas tecnologías no parecen estar respaldadas por la ciencia”, dijo Bonner. El guardián.

Y aunque la publicación de ICO dedica algún tiempo a señalar las amenazas potenciales inherentes a la tecnología biométrica mediante el uso del reconocimiento facial para la verificación de identidad o los registros en el aeropuerto, el organismo de control mantiene una actitud emocional. análisis es singularmente preocupante.

“La incapacidad de los algoritmos que no están lo suficientemente desarrollados para detectar señales emocionales significa que existe el riesgo de sesgo sistémico, inexactitud e incluso discriminación”. La publicación de ICO decía.



Source link-45