La nueva investigación a lo largo de las fronteras de la ingeniería de materiales promete una mejora del rendimiento realmente sorprendente para los dispositivos informáticos. Un equipo de investigación dirigido por Markus Hellbrand et al. y asociado con la Universidad de Cambridge cree que el nuevo material, basado en capas de óxido de hafnio atravesadas por picos de bario que cambian el voltaje, fusiona las propiedades de la memoria y los materiales ligados al procesamiento. Eso significa que los dispositivos podrían funcionar para el almacenamiento de datos, ofreciendo entre 10 y 100 veces la densidad de los medios de almacenamiento existentes, o podrían usarse como una unidad de procesamiento.
Publicada en la revista Science Advances, la investigación nos brinda un camino a través del cual podríamos terminar con una densidad, rendimiento y eficiencia energética mucho mayores en nuestros dispositivos informáticos. Tanto es así, de hecho, que una memoria USB típica basada en la tecnología (que se llama rango continuo) podrían contener entre 10 y 100 veces más información que las que usamos actualmente.
Dado que la RAM se duplica en densidad cada cuatro años, como lo señaló JEDEC, los fabricantes de RAM tardarían décadas en alcanzar el mismo nivel de densidad que esta tecnología ha demostrado hoy.
El dispositivo también es una luz en el túnel de la computación neuromórfica. Al igual que las neuronas de nuestro cerebro, el material (conocido como memoria de conmutación resistiva) promete funcionar como medio de almacenamiento y procesamiento. Eso es algo que simplemente no sucede en nuestra tecnología de semiconductores actual: los arreglos de diseño de transistores y materiales son tan diferentes entre lo que necesita para una celda de memoria y lo que necesita para uno de procesamiento (principalmente en términos de resistencia, como en la capacidad de no sufrir degradaciones de rendimiento) que actualmente no hay forma de fusionarlos.
Esta incapacidad para fusionarlos significa que la información debe fluir continuamente entre el sistema de procesamiento y sus diversos cachés (cuando se piensa en una CPU moderna), así como su conjunto de memoria externa (mirándolo, los mejores kits DDR5 del mercado). en computación, esto se conoce como el cuello de botella de von Neumann, lo que significa que un sistema con memoria y capacidades de procesamiento separadas estará fundamentalmente limitado por el ancho de banda entre ambos (lo que generalmente se conoce como el bus). Es por eso que todas las empresas de diseño de semiconductores (desde Intel hasta AMD, Nvidia y muchas otras) diseñan hardware dedicado que acelera este intercambio de información, como Infinity Fabric y NVLink.
El problema es que este intercambio de información tiene un costo de energía, y este costo de energía limita actualmente los límites superiores del rendimiento alcanzable. Recuerde que cuando la energía circula, también hay pérdidas inherentes, lo que da como resultado un mayor consumo de energía (un límite estricto actual en nuestros diseños de hardware y una prioridad creciente en el diseño de semiconductores), así como calor, otro límite estricto que ha llevado al desarrollo de soluciones de refrigeración cada vez más exóticas para tratar de permitir que la ley de Moore avance cojeando por un tiempo todavía. Por supuesto, también está el factor de sostenibilidad: se espera que la informática consuma hasta el 30% de las necesidades energéticas mundiales en un futuro no muy lejano.
“En gran medida, esta explosión en la demanda de energía se debe a las deficiencias de las tecnologías actuales de memoria informática”, dijo el primer autor, el Dr. Markus Hellenbrand, del Departamento de Ciencia de Materiales y Metalurgia de Cambridge. “En la informática convencional, hay memoria en un lado y procesamiento en el otro, y los datos se mezclan entre los dos, lo que requiere energía y tiempo”.
Los beneficios de fusionar la memoria y el procesamiento son bastante espectaculares, como puede imaginar. Si bien la memoria convencional es capaz de solo dos estados (uno o cero, la causa de la nomenclatura «binaria»), un dispositivo de memoria de conmutación resistiva puede cambiar su resistencia a través de una variedad de estados. Esto le permite funcionar con mayores variedades de voltajes, lo que a su vez permite codificar más información. A un nivel lo suficientemente alto, este es el mismo proceso que ocurre en el ámbito NAND, con aumentos en los bits por celda correspondientes a un mayor número de posibles estados de voltaje desbloqueados en el diseño de la celda de memoria.
Una forma de diferenciar el procesamiento del almacenamiento es decir que el procesamiento significa que la información se escribe y reescribe (sumas o restas, transformaciones o reorganizaciones) tan rápido como se solicita su ciclo de cambio. El almacenamiento significa que la información debe permanecer estática durante un período de tiempo más largo, tal vez porque es parte de los kernels de Windows o Linux, por ejemplo.
Para construir estos dispositivos de sinapsis, como se refiere el documento, el equipo de investigación tuvo que encontrar una manera de lidiar con un cuello de botella en la ingeniería de materiales conocido como el problema de la uniformidad. Debido a que el óxido de hafnio (HfO2) no posee ninguna estructura a nivel atómico, los átomos de hafnio y oxígeno que pueden hacer o deshacer sus propiedades aislantes se depositan al azar. Esto limita su aplicación para conducir electrones (energía eléctrica); cuanto más ordenada sea la estructura atómica, menor será la resistencia, por lo que mayor será la velocidad y la eficiencia. Pero el equipo descubrió que depositar bario (Ba) dentro de las películas delgadas de óxido de hafnio no estructurado dio como resultado puentes (o picos) de bario altamente ordenados. Y debido a que sus átomos están más estructurados, estos puentes pueden permitir mejor el flujo de electrones.
Pero la diversión comenzó cuando el equipo de investigación descubrió que podían cambiar dinámicamente la altura de los picos de bario, lo que permitía un control detallado de su conductividad eléctrica. Descubrieron que los picos podían ofrecer capacidades de conmutación a una velocidad de ~20 ns, lo que significa que podían cambiar su estado de voltaje (y, por lo tanto, contener información diferente) dentro de esa ventana. Encontraron resistencias de conmutación de> 10 ^ 4 ciclos, con una ventana de memoria> 10. Esto significa que, si bien el material es rápido, la cantidad máxima de cambios de estado de voltaje que puede soportar actualmente es de alrededor de 10,000 ciclos, lo que no es un resultado terrible, pero tampoco sorprendente.
Es equivalente a la resistencia disponible con la tecnología MLC (Multi-Level Cell), que naturalmente limitará su aplicación: el uso de este material como medio de procesamiento (donde los estados de voltaje se cambian rápidamente para mantener una reserva de cálculos y sus resultados intermedios).
Haciendo algunas matemáticas aproximadas, la conmutación de ~20 ns conduce a una frecuencia operativa de 50 MHz (que se convierte en ciclos por nanosegundo). Con el sistema procesando diferentes estados a toda velocidad (funcionando como GPU o CPU, por ejemplo), eso significa que los puentes de bario dejarían de funcionar (alcanzarían su límite de resistencia) alrededor de la marca de 0,002 segundos (recuerde, solo funciona a 50 MHz). Eso no parece que pueda tener el rendimiento suficiente para una unidad de procesamiento.
Pero para el almacenamiento? Bueno, ahí es donde entra en juego la memoria USB que es «10 a 100 veces más densa» en términos de capacidad de memoria. Estos dispositivos de sinapsis pueden acceder a muchos más estados de voltaje intermedio que incluso la tecnología NAND más densa en las memorias USB más espaciosas de la actualidad, por un factor de 10 o 100.
¿A quién no le encantaría tener una memoria «USB 7» de 10 TeraByte o incluso de 100 TeraByte en sus manos?
Hay trabajo por hacer en términos de resistencia y velocidad de conmutación de los puentes de bario, pero parece que el diseño ya es una tentadora prueba de concepto. Mejor aún, la industria de los semiconductores ya trabaja con óxido de hafnio, por lo que hay menos pesadillas logísticas y de herramientas por las que luchar.
Pero aquí hay una posibilidad de producto particularmente ingeniosa: imagine que la tecnología mejora hasta el punto de que se fabrica y se puede usar para diseñar una GPU AMD o Nvidia (que en estos días funcionan alrededor de la marca de 2 GHz). Hay un mundo en el que esa tarjeta gráfica viene con un estado de fábrica reiniciado en el que funciona completamente como memoria (ahora imagine una tarjeta gráfica con 10 TB, lo mismo que nuestra memoria USB hipotética).
Imagine un mundo en el que lo que AMD y Nvidia ofrecieran fueran esencialmente GPU programables, con matrices de GPU basadas en un rango continuo apiladas en términos de capacidad máxima de almacenamiento (recuerde el 10 a 100 más denso que el USB actual). Si es un aficionado a la IA que intenta construir su propio modelo de lenguaje grande (LLM), puede programar su GPU para que la cantidad justa de estos dispositivos sintéticos, estos transistores neuromórficos, ejecute funciones de procesamiento; no se sabe cuántos modelos de billones de parámetros eventualmente terminarán a medida que aumenta su complejidad, por lo que la memoria se volverá cada vez más importante.
Ser capaz de dictar si los transistores en su tarjeta gráfica se usan exactamente como memoria o exactamente como amplificadores atractivos para aumentar la configuración de gráficos hasta once, eso dependería completamente del usuario final; desde un jugador casual hasta un instalador de informática de alto rendimiento (HPC). Incluso si eso significara una disminución medida en la longevidad de partes de nuestro chip.
Siempre los estamos actualizando de todos modos, ¿no?
Pero no nos adelantemos. Aunque este no es un problema tan peligroso como el desarrollo de la IA y su regulación, hay poco que ganar soñando con tanto tiempo. Como toda tecnología, llegará cuando esté lista. si alguna vez lo es.