Rara vez las cosas son como parecen, y el mundo de la computación cuántica se presta mejor que la mayoría a esa descripción. Descrito como un cambio fundamental en nuestras capacidades de procesamiento, el desarrollo de la computación cuántica se ha acelerado increíblemente en los últimos años. Sin embargo, según un artículo de investigación publicado en la revista de la Association for Computing Machinery, la computación cuántica relevante (la que generalmente se conoce como círculos que corren incluso en las computadoras clásicas más poderosas) aún requiere descubrimientos innovadores en varias áreas antes de que pueda destronar a una mera tarjeta gráfica.
El elemento más sorprendente del documento es la conclusión de que varias aplicaciones seguirán siendo más adecuadas para la computación clásica (en lugar de la computación cuántica) durante más tiempo de lo que se pensaba. Los investigadores dicen que esto es cierto incluso para los sistemas cuánticos que se ejecutan en más de un millón de qubits físicos, cuyo rendimiento simuló el equipo como parte de su investigación.
Teniendo en cuenta que el sistema principal de hoy, Osprey de IBM, todavía «solo» se empaqueta en 433 qubits (con un lanzamiento del sistema de 4158 qubits prometido por IBM para 2025), la escala de tiempo hacia un millón de qubits se extiende más allá de lo esperado.
El problema, dicen los investigadores, no está en las aplicaciones o las cargas de trabajo en sí mismas: el descubrimiento de fármacos, las ciencias de los materiales, la programación y los problemas de optimización en general todavía están en la mira de la computación cuántica. El problema es con los propios sistemas de computación cuántica: sus arquitecturas y su incapacidad actual y futura para admitir las enormes cantidades de datos que requieren algunas de estas aplicaciones antes de que se encuentre una solución. Es un problema de E/S simple, no muy diferente al que todos conocíamos antes de que los SSD NVMe se convirtieran en la norma, cuando los HDD obstruían las CPU y las GPU de izquierda a derecha: los datos solo se pueden alimentar tan rápido.
Sin embargo, la cantidad de datos que se envían, la rapidez con la que llegan a su destino y el tiempo que lleva procesarlos son todos elementos de la misma ecuación. En este caso, la ecuación es para la ventaja cuántica: el momento en que las computadoras cuánticas ofrecen un rendimiento que va más allá de lo posible para los sistemas clásicos. Y parece que en las cargas de trabajo que requieren el procesamiento de grandes conjuntos de datos, las computadoras cuánticas tendrán que ver cómo funcionan las GPU como la A100 de Nvidia, probablemente durante mucho, mucho tiempo.
La computación cuántica podría tener que conformarse con resolver grandes problemas de computación en pequeños datos, mientras que la clásica tendrá la poco envidiable tarea de procesar los problemas de «grandes datos», un enfoque híbrido de la computación cuántica que ha ido ganando terreno en los últimos años.
Según una entrada de blog (se abre en una pestaña nueva) por Matthias Troyer de Microsoft, uno de los investigadores involucrados en el estudio, esto significa que las cargas de trabajo como el diseño de fármacos y el plegamiento de proteínas, así como la predicción del tiempo y el clima serían más adecuadas para los sistemas clásicos después de todo, mientras que la química y la ciencia de los materiales encajan perfectamente el proyecto de ley de la filosofía «big computing, small data».
Si bien esto puede parecer un fracaso del desafío del cubo de hielo para las esperanzas de la computación cuántica, Troyer se apresuró a enfatizar que ese no es el caso: «Si las computadoras cuánticas solo beneficiaran a la química y la ciencia de los materiales, eso sería suficiente. Muchos problemas que enfrenta el mundo de hoy se reducen a problemas de química y ciencia de los materiales», dijo. «Los vehículos eléctricos mejores y más eficientes se basan en encontrar mejores químicas de batería. Los medicamentos contra el cáncer más efectivos y específicos se basan en la bioquímica computacional».
Pero hay otro elemento en la tesis de los investigadores, uno que es más difícil de ignorar: parece que los algoritmos de computación cuántica actuales serían insuficientes, por sí mismos, para garantizar el resultado deseado de «ventaja cuántica». En lugar de la complejidad de la ingeniería de sistemas de una computadora cuántica, aquí se trata de un simple problema de rendimiento: los algoritmos cuánticos en general simplemente no proporcionan suficiente aceleración. El algoritmo de Grover, por ejemplo, ofrece una aceleración cuadrática sobre los algoritmos clásicos; pero según los investigadores, eso no es suficiente.
«Estas consideraciones ayudan a separar la exageración de la practicidad en la búsqueda de aplicaciones cuánticas y pueden guiar los desarrollos algorítmicos», se lee en el documento. «Nuestro análisis muestra que es necesario que la comunidad se centre en velocidades supercuadráticas, idealmente aceleraciones exponenciales, y uno debe considerar cuidadosamente los cuellos de botella de E/S».
Entonces, sí, todavía queda un largo camino hacia la computación cuántica. Sin embargo, las IBM y las Microsoft del mundo seguirán investigando constantemente para habilitarlo. Muchos de los problemas que enfrenta la computación cuántica en la actualidad son los mismos que enfrentamos al desarrollar hardware clásico: las CPU, las GPU y las arquitecturas de hoy en día tuvieron un comienzo mucho más temprano y más impactante. Pero aún así tuvieron que someterse a las mismas iteraciones de diseño y rendimiento que eventualmente tendrá la computación cuántica, dentro de su nuevo y valiente marco de tiempo. El hecho de que el documento haya sido escrito por científicos de Microsoft, Amazon Web Services (AWS) y el Scalable Parallel Computing Laboratory en Zúrich, todas partes con intereses creados en el desarrollo y el éxito de la computación cuántica, hace que ese objetivo sea aún más probable.