Un equipo de investigadores de IBM en asociación con UC Berkeley y la Universidad de Purdue han logrado extraer computación cuántica útil de una de las computadoras NISQ (Noisy Intermediate Scale Quantum) actuales. El equipo utilizó una de las últimas Unidades de Procesamiento Cuántico (QPU) de IBM, Eagle, para realizar cálculos que se esperaba fallaran en medio del ruido qubit. Sin embargo, al utilizar un mecanismo de retroalimentación inteligente entre la QPU Eagle de 127 qubits de IBM y las supercomputadoras con UC Berkeley y la Universidad de Purdue, IBM logró demostrar que podía obtener resultados útiles de una QPU ruidosa. La puerta a la utilidad cuántica está abierta, y estamos mucho antes de lo esperado.
Nuestras computadoras cuánticas de la era NISQ están conectadas a nuestras supercomputadoras estándar: las máquinas más poderosas conocidas por la humanidad, capaces de realizar billones de operaciones por segundo. Por poderosos que sean, es una verdad universal que cuando dos sujetos están atados juntos, solo se mueven tan rápido como lo permite el más lento de ellos. Y la supercomputadora ya estaba al límite para este experimento, utilizando técnicas avanzadas para mantenerse al día con la complejidad de la simulación.
Cuando la simulación de los qubits se volvió demasiado compleja para que la supercomputadora simplemente «forzara brutamente» los resultados, los investigadores de UC Berkeley comenzaron a usar algoritmos de compresión: estados de red de tensor. Estos estados de red de tensores (matrices) son esencialmente cubos de datos, donde los números que componen los cálculos se representan en un espacio tridimensional (x, y, z) que es capaz de manejar relaciones y volúmenes de información más complejos que una solución 2D más habitual. – piense en una simple tabla 2D de Excel (x, y) y en las muchas más filas que tendría que buscar en esa configuración si tuviera que considerar otro plano de información (z).
Esto significa que ya hay alguna utilidad que se puede extraer de las computadoras cuánticas NISQ: hay asuntos en los que pueden producir resultados que estarían más allá del alcance, al menos en términos de tiempo y dinero, para las supercomputadoras estándar, o donde los aros necesarios para obtener esos resultados haría que el esfuerzo fuera mayor que la ganancia.
Ahora hay un ir y venir entre las soluciones proporcionadas por nuestras computadoras cuánticas de la era NISQ que cuentan con unos pocos cientos de qubits (en el mejor de los casos) y nuestras supercomputadoras estándar que cuentan con billones de transistores. A medida que aumenta la cantidad de qubits útiles disponibles, se explorarán los circuitos con profundidades más profundas de 60 utilizados en el documento. A medida que aumenta la cantidad y la calidad de los qubits, las supercomputadoras estándar también tendrán que mantenerse al día, procesando los números y verificando una cola tan profunda como sea posible de los resultados de la computación cuántica.
“Inmediatamente señala la necesidad de nuevos métodos clásicos”, dijo Anand. Y ya están investigando esos métodos. «Ahora, nos preguntamos si podemos tomar el mismo concepto de mitigación de errores y aplicarlo a las simulaciones de redes de tensores clásicas para ver si podemos obtener mejores resultados clásicos».
Esencialmente, cuanto más exactamente pueda predecir cómo evoluciona el ruido en su sistema cuántico, mejor sabrá cómo ese ruido envenena los resultados correctos. La forma en que aprendes a predecir algo es simplemente pincharlo y observar lo que sucede tantas veces como para que puedas identificar las palancas que lo hacen funcionar.
Algunas de estas palancas tienen que ver con cómo y cuándo activa sus qubits (algunos circuitos usan más qubits, otros requieren que esos qubits se organicen en puertas más o menos cuánticas, con enredos más complejos entre ciertos qubits…) Los investigadores de IBM tuvieron que aprender con precisión cuánto y qué ruido resultó al mover cada una de estas perillas dentro de su Quantum Eagle de 127 qubits, porque si sabe cómo introducir ruido, entonces comienza a controlarlo. Si comprende cómo aparece en primer lugar, puede explicarlo, lo que a su vez le permite intentar prevenir o aprovechar que eso suceda.
Pero si solo está ejecutando cálculos en su computadora ruidosa, ¿cómo puede saber que esos cálculos son correctos? Ahí es donde intervienen las supercomputadoras estándar y la búsqueda de una verdad básica.
El equipo de IBM obtuvo acceso a dos supercomputadoras: el Centro Nacional de Computación Científica de Investigación Energética (NERSC) del Laboratorio Nacional de Berkeley y la supercomputadora Anvil financiada por la NSF en la Universidad de Purdue. Estas supercomputadoras calcularían las mismas simulaciones cuánticas que IBM ejecutó en su Eagle QPU de 127 qubits, divididas según sea necesario dentro de ellas y de manera que permitan la comparación de ambos resultados de las supercomputadoras. Ahora, tiene una verdad básica: la solución que sabe que es correcta, lograda y verificada por supercomputadoras estándar. Ahora la luz es verde para comparar tus resultados ruidosos con los correctos.
“IBM le preguntó a nuestro grupo si estaríamos interesados en llevar adelante el proyecto, sabiendo que nuestro grupo se especializaba en las herramientas computacionales necesarias para este tipo de experimentos”. dijo el investigador graduado Sajant Anand de UC Berkeley. «Pensé que era un proyecto interesante, al principio, pero no esperaba que los resultados fueran como lo fueron».
Entonces es «solo» una cuestión de resolver un acertijo de «encontrar las diferencias»: una vez que se da cuenta de cómo exactamente la presencia de ruido sesgó los resultados, puede compensar su presencia y obtener la misma «verdad fundamental» que estaba presente en el resultados de las supercomputadoras estándar. IBM llama a esta técnica Zero Noise Extrapolation (ZNE).
Es un proceso simbiótico: el equipo de IBM responsable del artículo también busca llevar sus técnicas de mitigación de errores, y equivalentes a la extrapolación de ruido cero, a las supercomputadoras estándar. Entre el aumento de potencia bruta de los desarrollos de hardware más recientes y las optimizaciones de algoritmos y técnicas (como el uso de algoritmos de compresión inteligente), la potencia bruta de supercomputación crecerá, permitiéndonos verificar nuestro trabajo de computación cuántica un poco más en la era de post -Ordenadores cuánticos NISQ y su despliegue de corrección de errores cuánticos.
Ese es el momento en que la cuerda se rompe, y la cuántica estará relativamente libre de la necesidad de verificar sus resultados con técnicas clásicas. Eso es lo que está ralentizando la computación cuántica (más allá de la ausencia de corrección de errores que permitirá que los qubits realicen los cálculos por sí mismos, por supuesto).
En una entrevista con Tom’s Hardware para este artículo, el Dr. Abhinav Kandala, gerente de Quantum Capabilities and Demonstrations en IBM Quantum, lo expresó maravillosamente:
Excepto con cuántica, puede aumentar la complejidad del problema más allá de lo que pueden manejar las supercomputadoras, y dado que ha modelado correctamente cómo el ruido afecta el sistema, aún puede realizar los pasos de limpieza en sus resultados ruidosos… con cierto grado de confianza. Cuanto más se aleje de los resultados «conclusivamente veraces» proporcionados por las supercomputadoras estándar, más probable es que introduzca errores fatales en los cálculos que no fueron (y no pudieron ser) contabilizados en su modelo de ruido.
Pero si bien puede confiar en sus resultados, en realidad ha proporcionado capacidades de procesamiento cuántico que son útiles y van más allá de lo que se puede lograr con las máquinas de Turing clásicas de generación actual, como la supercomputadora de Berkeley. También va más allá de lo que se creía posible en nuestras computadoras actuales de la era NISQ (Noisy Intermediate Stage Quantum). Y da la casualidad de que muchos algoritmos diseñados para dispositivos cuánticos a corto plazo podrían caber dentro de los 127 qubits en Eagle QPU de IBM, que puede ofrecer profundidades de circuito superiores a 60 pasos «valor» de puertas cuánticas.
El Dr. Kandala luego agregó: “Lo que estamos haciendo con la mitigación de errores es ejecutar circuitos cuánticos de profundidad corta y medir lo que se denominan valores esperados, medir las propiedades del estado, esto no es lo único que la gente quiere hacer con las computadoras cuánticas, ¿cierto? Me refiero a desbloquear todo el uno potencial necesita corrección de errores cuánticos y el sentimiento predominante era que para hacer algo útil solo se puede acceder a eso una vez que se tiene una computadora cuántica con errores corregidos
“La pieza crítica fue poder manipular el ruido más allá del estiramiento del pulso”, dijo el Dr. Kandala. «Una vez que eso comenzó a funcionar, pudimos hacer extrapolaciones más complicadas que podrían suprimir el sesgo del ruido de una manera que no podíamos hacer antes».
Es probable que ZNE se convierta en un elemento básico de cualquier enfoque de computación cuántica: la mitigación de errores es un requisito esencial para las computadoras NISQ propensas a errores que tenemos actualmente y probablemente se requerirá incluso cuando lleguemos al umbral de la corrección de errores, un enfoque que ve ciertos qubits encargados de funciones relacionadas con la corrección de errores en los cálculos de otros qubits.
El trabajo realizado por IBM aquí ya ha tenido un impacto en la hoja de ruta de la empresa: ZNE tiene esa cualidad atractiva de hacer mejores qubits a partir de los que ya podemos controlar dentro de una Unidad de procesamiento cuántico (QPU). Es casi como si tuviéramos un aumento de megahercios: más rendimiento (menos ruido) sin ninguna lógica adicional. Podemos estar seguros de que estas lecciones se están considerando e implementando siempre que sea posible en el camino hacia un «millón + qubits».
También es difícil ignorar cómo este trabajo muestra que en realidad no hay una carrera entre cuántico y clásico: el futuro es de hecho Fusion, para jugar un poco con la moto de AMD de antaño. Que Fusion verá elementos informáticos específicos que aborden necesidades de procesamiento específicas. Cada problema, por complejo que sea, tiene su herramienta, desde la clásica hasta la cuántica; y el ingenio humano exige que sobresalgamos en el uso de todos los nuestros.
Esa cuerda proverbial entre las supercomputadoras estándar y las computadoras cuánticas solo se extiende hasta cierto punto, pero IBM está encontrando formas cada vez más inteligentes de extender su longitud. Gracias a esta investigación, las computadoras cuánticas ya están comenzando a ver un poco más adelante. Quizás el Dr. Kandala pueda ver lo que espera antes de lo que espera: el campo de juego de la utilidad cuántica ahora está abierto antes de lo previsto. Veamos qué pueden hacer los humanos dentro de él, ¿de acuerdo?