Los científicos desarrollan un modelo GPT que interpreta los pensamientos humanos


Incluso cuando el mundo todavía se tambalea en su intento de comprender y absorber las ondas del lanzamiento de ChatGPT y una variedad de sistemas basados ​​en IA, cuyo polvo tardará mucho en asentarse, los científicos continúan con sus propias aplicaciones de Generative Pre-trained. Transformers (GPT) y LLM (Large Language Models). y de acuerdo a Científico americanouna de las últimas aplicaciones de este tipo es un modelo basado en GPT que toma sus indicaciones no del texto humano, sino directamente de la mente de los usuarios.

Desarrollado por un equipo de investigación de la Universidad de Texas en Austin y publicado en un artículo en la revista Naturaleza (se abre en una pestaña nueva), su modelo GPT interpreta la actividad cerebral de una persona a través de su flujo sanguíneo como se muestra en una resonancia magnética funcional (fMRI), lo que le permite acceder a lo que el usuario está «escuchando, diciendo o imaginando». Y lo hace sin ninguna cirugía invasiva ni ningún apego al propio paciente. Hubo una clara oportunidad de nombrar el nuevo modelo BrainGPT, pero alguien ignoró ese memorándum: los investigadores se refieren a su modelo de «lectura del cerebro» como GPT-1.



Source link-41