Imagine tener la capacidad de recordar sus recuerdos con una precisión casi perfecta. A medida que avanzamos hacia un futuro cada vez más centrado en la IA, parece que ese sueño se hará realidad. Ahora que los investigadores han utilizado Stable Diffusion para reconstruir imágenes bastante precisas y de alta resolución mediante la lectura de ondas cerebrales humanas, algún día podríamos estar extrayendo imágenes de los anales de nuestras mentes sin haber tomado una sola fotografía.
Los investigadores Yu Takagi y Shinji Nishimoto, de la Graduate School of Frontier Biosciences de la Universidad de Osaka, escribieron recientemente un artículo que describe cómo es posible reconstruir imágenes de alta resolución. (se abre en una pestaña nueva) (PDF) utilizando modelos de difusión latente, mediante la lectura de la actividad cerebral humana obtenida a partir de imágenes de resonancia magnética funcional (fMRI), «sin la necesidad de entrenamiento o ajuste de modelos generativos profundos complejos» (a través de Vice (se abre en una pestaña nueva)).
Teniendo en cuenta que no entendemos completamente cómo ocurre la traducción subyacente en el cerebro, los resultados de esta investigación son increíbles. El hecho de que Takagi y Nishimoto fueran capaces de extraer imágenes de alta resolución del espacio latente usando ondas cerebrales humanas es asombroso.
Bien, dicen alta resolución, pero estamos hablando de 512 x 512 píxeles. Aún así, es mucho mejor que los 256p que la competencia había logrado, y también con una «fidelidad semántica» mucho mayor. En otras palabras, las traducciones son vagamente reconocibles y representativas de las imágenes originales que se mostraron a los participantes.
Los estudios anteriores involucraron «entrenamiento y posiblemente ajuste fino de modelos generativos, como GAN, con el mismo conjunto de datos utilizado en los experimentos de fMRI», explican los investigadores. Es un desafío, ya que estos modelos generativos no solo son muy incómodos para trabajar, sino que el material de capacitación es muy limitado. Parece que los investigadores de Osaka han podido eludir estas limitaciones utilizando Stable Diffusion, y los resultados parecen realmente impresionantes.
Todos hemos visto el episodio de Black Mirror. Toda la historia de ti (se abre en una pestaña nueva) es una mirada aterradora a un futuro en el que un implante registra nuestra vida diaria para que luego podamos poner cada momento bajo un intenso escrutinio y arruinar nuestras relaciones.
Pero antes de enviar la idea de usar IA para el recuerdo visual al segmento distópico de su cerebro, ¡piense en los usos prácticos! Un día podríamos ver personas no verbales, o personas paralizadas que no pueden simplemente tomar una foto de algo para mostrarlo más tarde, capaces de mostrarnos exactamente lo que están pensando haciendo pasar sus ondas cerebrales a través de una inteligencia artificial.
Tu próxima máquina
Mejor PC para juegos (se abre en una pestaña nueva): Las mejores máquinas prefabricadas de los profesionales
La mejor computadora portátil para juegos (se abre en una pestaña nueva): Portátiles perfectos para juegos móviles
Como uno de los primeros estudios (si no el primero) en usar modelos de difusión de esta manera, al menos puede ayudar a pintar dichos algoritmos bajo una mejor luz. Stable Diffusion ha sido criticado recientemente, al menos en el espacio artístico. Con razón cuando algunos modelos de difusión raspan Internet (se abre en una pestaña nueva) y regurgitar la página principal de ArtStation, solo para ser utilizada para el beneficio financiero de alguna fiesta perezosa.
Pero si los datos se usan correctamente y la facilidad de entrenar estos modelos puede beneficiar el campo de la accesibilidad para que las personas puedan dar representaciones precisas de sus propios mundos internos y comunicarse de nuevas maneras, estoy totalmente de acuerdo.