Científicos usan IA para reconstruir Pink Floyd usando la actividad cerebral de pacientes quirúrgicos


Los científicos han reconstruido con éxito ‘Another Brick in the Wall Part 1’ de Pink Floyd al decodificar la actividad cerebral de los pacientes que escucharon la canción mientras esperaban una cirugía cerebral. Se espera que la investigación algún día ayude a otorgar una voz más expresiva a quienes padecen parálisis y trastornos del desarrollo o neurológicos.

Los datos utilizado en el estudio fue capturado en 2008 y 2015 por una colección de 2379 electrodos que se conectaron directamente a los cerebros de 29 personas que esperaban una cirugía de epilepsia en el Centro Médico de Albany en Nueva York. Durante este tiempo, los pacientes escucharon pasivamente la canción clásica de Pink Floyd «Another Brick in the Wall, Part 1», con la esperanza de que los datos ayudaran a los investigadores a comprender mejor cómo el cerebro percibe la música.

En un nuevo artículo publicado en la revista PLOS Biology, los científicos revelaron que pudieron decodificar con éxito la actividad eléctrica de la corteza auditiva para reconstruir una versión reconocible de la canción de Pink Floyd. La versión reconstruida de la canción, que se decodificó a partir de las lecturas de los electrodos y se volvió a codificar en una pieza musical reconocible mediante un programa de IA, se puede escuchar aquí.

«La decodificación de las cortezas auditivas, que están más cerca de la acústica de los sonidos, a diferencia de la corteza motora, que está más cerca de los movimientos que se realizan para generar la acústica del habla, es muy prometedora», explicó el becario postdoctoral Ludovic Bellier. de la Universidad de California, Berkeley, quien fue uno de los autores del nuevo estudio. «Le dará un poco de color a lo que se decodifica».

Un campo completamente nuevo para las interfaces cerebro-máquina

Los investigadores esperan que su trabajo ayude algún día en la creación de un sistema cerebro-habla que ayudaría a las personas que sufren de parálisis a comunicarse con una voz rica en elementos musicales como el estrés y la entonación, que ayudan a transmitir significado más allá del alcance de las palabras pronunciadas robóticamente. .

«A medida que avanza todo este campo de las interfaces cerebro-máquina, esto le brinda una forma de agregar musicalidad a los futuros implantes cerebrales para las personas que lo necesitan, alguien que tiene ELA o algún otro trastorno neurológico o del desarrollo incapacitante que compromete la producción del habla», explicó el coautor del estudio. autor Robert Knight, profesor de psicología en la Universidad de California, Berkeley.

“Te da la capacidad de decodificar no solo el contenido lingüístico, sino parte del contenido prosódico del habla, parte del afecto. Creo que eso es en lo que realmente hemos comenzado a descifrar el código».

Knight espera que los avances futuros en los sensores de registro cerebral permitan que dicho sistema funcione leyendo rápidamente las señales eléctricas desde el exterior del cráneo, en lugar de mediante electrodos colocados directamente en la superficie del cerebro a través de una cirugía invasiva, como es el caso actualmente.

Los investigadores también pudieron confirmar que el hemisferio derecho del cerebro humano está más involucrado con la percepción de la música que el lado izquierdo del cerebro, al tiempo que identificaron regiones que se ocupaban de la detección de ritmos musicales.

Anthony es un colaborador independiente que cubre noticias de ciencia y videojuegos para IGN. Tiene más de ocho años de experiencia cubriendo los últimos avances en múltiples campos científicos y no tiene tiempo para sus travesuras. Síguelo en Twitter @BeardConGamer





Source link-3