Google está haciendo que las computadoras cuánticas sean más resistentes a los errores


Las computadoras cuánticas son propensas a errores de cálculo. Por eso hay problemas en el desarrollo de especímenes de alto rendimiento. Ahora Google ha superado un primer obstáculo para las computadoras tolerantes a errores.

Parte de un sistema de computación cuántica en Google Quantum AI.

IA cuántica de Google

Las computadoras cuánticas se consideran la próxima «gran cosa» en la tecnología de la información: se supone que resolverán rápidamente problemas prácticos que incluso las supercomputadoras más grandes masticarían durante décadas. Gigantes tecnológicos como Intel, IBM y Google están desarrollando prototipos que los usuarios potenciales, por ejemplo en la industria automotriz, pueden usar para investigar posibles aplicaciones. Los gobiernos financian el desarrollo con miles de millones de dólares.

Un problema fundamental aún no se ha resuelto, a pesar de la intensa investigación: las computadoras cuánticas son extremadamente propensas a errores, que también son difíciles de detectar y corregir.

Los investigadores luchan con un círculo vicioso. La computadora cuántica necesita recursos informáticos adicionales para la corrección de errores. Cuanto más desee suprimir los errores, más. Cuanto más compleja sea la tarea a resolver, menor debe ser la tasa de error. Sin embargo, la potencia informática múltiple requerida para esto también es propensa a errores. La conclusión es que se crean más errores nuevos de los que se corrigen.

Un nuevo método pretende reducir los errores

Al menos así solía ser. Google ha desarrollado ahora un método de corrección de errores que produce menos errores que una versión más pequeña del mismo, según informa la empresa en la revista especializada «Nature». Este es un hito en el camino hacia computadoras cuánticas escalables, es decir, expandibles, dice Hartmut Neven, director del Quantum AI Lab de Google, que desarrolló el nuevo proceso en el procesador cuántico «Sycamore» de Google.

El poder de las computadoras cuánticas radica en su capacidad para lidiar con la borrosidad. Pero esa es también su debilidad. El qubit, su unidad informática más pequeña, puede almacenar una superposición de los dos valores «0» y «1», a diferencia del bit de la computadora clásica, que solo puede registrar uno de los dos valores. Cuantos más qubits tiene una computadora cuántica, más información puede procesar en paralelo. Pero eso solo se aplica en principio, porque incluso las perturbaciones más pequeñas del entorno hacen que la doble existencia de «0» y «1» colapse: se produce un error.

Las copias de los qubits ayudan con la corrección.

Ahora la idea de la corrección de errores es proporcionar múltiples copias de cada qubit. Esto permite verificar si todos los qubits están en el mismo estado o no. Si no, hay un error que se puede corregir.

Sin embargo, esta prueba requiere qubits adicionales. Es por eso que se requiere un sistema de circuitos muy complejo: el llamado «qubit lógico», que se supone que funciona con precisión, consta de muchos llamados «qubits físicos». Con el método de corrección de errores utilizado por Google llamado Surface Code, hay exactamente 17 qubits físicos por cada qubit lógico.

Sin embargo, esto solo se puede utilizar para corregir un único error. Aunque es menos común que ocurran dos errores al mismo tiempo, también tienen peso en cálculos más complejos. Un código de superficie que detecta estos errores dobles requiere 49 qubits físicos para un único qubit lógico. Sin embargo, hasta ahora el problema ha sido que aumentar de 17 a 49 siempre generaba más errores en lugar de menos.

Pero ahora el equipo de Hartmut Neven ha creado un código de superficie con 49 qubits que produce menos errores que uno con 17. Para lograrlo, el equipo tuvo que mejorar el sistema informático cuántico en todos los niveles, dice Julian Kelly de Quantum AI: desde el qubits físicos al software al sistema de enfriamiento para el chip cuántico. Por ejemplo, el equipo utilizó una técnica que reduce los errores de medición al monitorear los qubits de datos.

La corrección de errores requiere un millón de qubits

«La calidad del estudio es muy buena», elogia Andreas Wallraff de ETH Zurich, quien está investigando métodos similares. Por primera vez, se demostró en un experimento un «pilar» de corrección de errores. Sin embargo, Wallraff señala que la tasa de error solo ha disminuido levemente, del 3 al 2,9 por ciento. Podría ser que a medida que la cantidad de qubits físicos en el qubit lógico continúe creciendo, la tasa de error aumente nuevamente. Pero eso sería un problema. El físico enfatiza que algunas aplicaciones planificadas de las computadoras cuánticas, por ejemplo en química, tienen requisitos de tasa de error muy altos.

Por lo tanto, los métodos de corrección de errores todavía tendrán que mejorarse significativamente. Y eso significa que necesita aún más qubits físicos por qubit lógico. Hartmut Neven también lo admite. Una computadora cuántica prácticamente utilizable necesitará alrededor de 1000 qubits lógicos, cada uno de los cuales consta de 1000 qubits físicos, dice el físico. Eso es un total de un millón de qubits.

Sin embargo, la investigación no ha llegado tan lejos todavía. El próximo objetivo es mejorar significativamente los qubits físicos, dice Wallraff. “Si los qubits físicos y las operaciones que se realizan sobre ellos mejoran por un factor de 10 o 100, todo esto podría empezar a funcionar bien”, estima el físico.

Siga a los editores científicos de la NZZ Gorjeo.





Source link-58