Incluso cuando el mundo todav\u00eda se tambalea en su intento de comprender y absorber las ondas del lanzamiento de ChatGPT y una variedad de sistemas basados \u200b\u200ben IA, cuyo polvo tardar\u00e1 mucho en asentarse, los cient\u00edficos contin\u00faan con sus propias aplicaciones de Generative Pre-trained. Transformers (GPT) y LLM (Large Language Models). y de acuerdo a Cient\u00edfico americano<\/em>una de las \u00faltimas aplicaciones de este tipo es un modelo basado en GPT que toma sus indicaciones no del texto humano, sino directamente de la mente de los usuarios.<\/p>\n Desarrollado por un equipo de investigaci\u00f3n de la Universidad de Texas en Austin y publicado en un art\u00edculo en la revista Naturaleza<\/em> (se abre en una pesta\u00f1a nueva)<\/span>,<\/em> su modelo GPT interpreta la actividad cerebral de una persona a trav\u00e9s de su flujo sangu\u00edneo como se muestra en una resonancia magn\u00e9tica funcional (fMRI), lo que le permite acceder a lo que el usuario est\u00e1 \u00abescuchando, diciendo o imaginando\u00bb. Y lo hace sin ninguna cirug\u00eda invasiva ni ning\u00fan apego al propio paciente. Hubo una clara oportunidad de nombrar el nuevo modelo BrainGPT, pero alguien ignor\u00f3 ese memor\u00e1ndum: los investigadores se refieren a su modelo de \u00ablectura del cerebro\u00bb como GPT-1.<\/p>\n