Incluso cuando el mundo todavía se tambalea en su intento de comprender y absorber las ondas del lanzamiento de ChatGPT y una variedad de sistemas basados en IA, cuyo polvo tardará mucho en asentarse, los científicos continúan con sus propias aplicaciones de Generative Pre-trained. Transformers (GPT) y LLM (Large Language Models). y de acuerdo a Científico americanouna de las últimas aplicaciones de este tipo es un modelo basado en GPT que toma sus indicaciones no del texto humano, sino directamente de la mente de los usuarios.
Desarrollado por un equipo de investigación de la Universidad de Texas en Austin y publicado en un artículo en la revista Naturaleza (se abre en una pestaña nueva), su modelo GPT interpreta la actividad cerebral de una persona a través de su flujo sanguíneo como se muestra en una resonancia magnética funcional (fMRI), lo que le permite acceder a lo que el usuario está «escuchando, diciendo o imaginando». Y lo hace sin ninguna cirugía invasiva ni ningún apego al propio paciente. Hubo una clara oportunidad de nombrar el nuevo modelo BrainGPT, pero alguien ignoró ese memorándum: los investigadores se refieren a su modelo de «lectura del cerebro» como GPT-1.
Los investigadores notan que debido a la técnica de fMRI que se usa, GPT-1 no puede analizar palabras específicas en las que un sujeto podría pensar; y debido a que el modelo funciona a un nivel más alto de abstracción (extrapola el significado de la actividad cerebral, en lugar de buscar el significado en sí), algunos detalles se pierden en la traducción. Por ejemplo, un participante de la investigación escuchó una grabación que decía: «Todavía no tengo mi licencia de conducir». Al procesar los datos de fMRI generados desde el momento en que el participante escuchó las palabras, GPT-1 devolvió la oración original que significa «Ella ni siquiera ha comenzado a aprender a conducir todavía». Entonces, no, no transcribe nuestros pensamientos palabra por palabra, pero entiende su significado general, o «la esencia», como los investigadores caracterizaron algunos de los resultados de GPT-1.
Todo esto plantea una pregunta inmediata: ¿a dónde nos lleva esto?
En teoría, la tecnología en sí misma no es maliciosa. La tecnología es una abstracción, un concepto, que luego puede usarse para un propósito. En el vacío, GPT-1 podría ayudar a los pacientes con ELA o afasia a comunicarse. También en el vacío, los usuarios podrían aprovechar tecnologías como estas para «registrar» sus pensamientos (imagine una aplicación de Notas que esté vinculada a sus propios pensamientos, o una instalación de AutoGPT que se aproveche de sus ideas), abriendo nuevos lugares para la autoevaluación. conocimiento, y tal vez incluso nuevos caminos para la psicoterapia.
Pero mientras estamos aquí, también podemos incluir otras reutilizaciones menos beneficiosas de la tecnología, como usarla para extraer información directamente del cerebro de un sujeto que no lo desea. Ser no invasivo es tanto una fortaleza como una debilidad allí. Y también está el problema con la tecnología en sí: las máquinas fMRI ocupan salas enteras y millones de dólares presupuestarios dondequiera que se encuentren, lo que limita severamente las aplicaciones.
Aun así, parecería que el elemento de comunicación de «voluntad» -esa elección de expresar nuestros propios pensamientos, de traerlos al mundo real- está al borde de la destrucción. Los propios investigadores han llamado su atención sobre posibles usos indebidos e impactos negativos de la tecnología en su estudio, algo que sucede con mucha menos frecuencia de lo que debería tanto en la academia como en los esfuerzos de investigación privados.
«Nuestro análisis de privacidad sugiere que actualmente se requiere la cooperación del sujeto tanto para entrenar como para aplicar el decodificador», se lee. «Sin embargo, los desarrollos futuros podrían permitir que los decodificadores eludan estos requisitos. Además, incluso si las predicciones del decodificador son inexactas sin la cooperación del sujeto, podrían malinterpretarse intencionalmente con fines maliciosos. Por estas y otras razones imprevistas, es fundamental crear conciencia sobre los riesgos. de tecnología de decodificación cerebral y promulgar políticas que protejan la privacidad mental de cada persona».
Mientras estamos en la puerta más allá de la cual nuestros pensamientos ya no están seguros, esa es una postura sabia.