Imágenes neuronales revelan señales conversacionales secretas


Estudiar conversaciones humanas no es un desafío simple. Por ejemplo, cuando los humanos comienzan a hablar entre sí en una conversación, coordinan su discurso muy estrechamente: las personas rara vez hablan entre sí y rara vez dejan espacios largos, sin hablar o en silencio. Una conversación es como un baile sin coreografía ni música: espontáneo pero estructurado. Para apoyar esta coordinación, las personas que tienen la conversación comienzan a alinear su respiración, su mirada, la melodía del habla y sus gestos.

Para comprender esta complejidad, estudiar a los participantes de la investigación en un laboratorio mirando las pantallas de las computadoras, la configuración tradicional de los experimentos de psicología, no es suficiente. Necesitamos estudiar cómo las personas se comportan naturalmente en el mundo real, utilizando técnicas de medición novedosas que nos permitan capturar sus respuestas neuronales y fisiológicas. Por ejemplo, Antonia Hamilton, neurocientífica del University College Londond, utilizó recientemente la captura de movimiento para identificar un patrón de asentimientos muy rápidos que hacen los oyentes para demostrar que están prestando atención cuando alguien habla. Hamilton muestra que la interacción mejora con estas señales sutiles, pero lo que también es fascinante es que, aunque los hablantes pueden percibir esta información, estas señales corporales no son perceptibles a simple vista.

En 2023, finalmente podremos comenzar a capturar datos neuronales mientras las personas se mueven y hablan entre sí. Esto no es fácil: las técnicas de imágenes cerebrales, como la resonancia magnética funcional (fMRI, por sus siglas en inglés), implican insertar a los participantes dentro de escáneres cerebrales de 12 toneladas. Sin embargo, un estudio reciente logró eso con una cohorte de participantes autistas. Este documento representa un gran logro, pero, por supuesto, hasta que las técnicas de resonancia magnética funcional se vuelvan mucho más pequeñas y móviles, no será posible ver cómo los datos neuronales se relacionan con el patrón de movimientos y el habla en las conversaciones, idealmente entre ambos participantes. en una conversación Por otro lado, se puede usar una técnica diferente, llamada espectroscopía de infrarrojo cercano funcional (fNIRS), mientras las personas se mueven naturalmente. fNIRS mide el mismo índice de actividad neuronal que fMRI a través de optodes, que iluminan el cuero cabelludo y analizan la luz reflejada. fNIRS ya se implementó mientras las personas realizaban tareas al aire libre en el centro de Londres, lo que demuestra que este método se puede usar para recopilar datos neuronales en paralelo con datos de movimiento y habla, mientras las personas interactúan de forma natural.

En 2023 también podremos ver por primera vez cómo funcionaría esto en conversaciones de grupos grandes, que tienden a llegar a su límite con alrededor de cinco personas. Este es, por supuesto, un gran desafío, ya que las conversaciones pueden ser muy flexibles y abiertas, pero es esencial si queremos entender cómo los cerebros de los participantes coordinan estos bailes conversacionales finamente cronometrados.

Estos avances representarán grandes avances en el estudio científico de la conversación humana, una de las áreas más fascinantes de la neurociencia cognitiva y la psicología. Por supuesto, soy un poco parcial: he estudiado la percepción y la producción del habla humana durante décadas, y creo que las conversaciones son donde se unen nuestros procesos cerebrales lingüísticos, sociales y emocionales. Las conversaciones son universales y son la forma principal que utilizan los humanos para gestionar las interacciones y conexiones sociales. Son muy importantes para nuestra salud mental y física. Cuando podamos descifrar por completo la ciencia de las conversaciones, habremos recorrido un largo camino para entendernos a nosotros mismos.



Source link-46