Para la ciencia, el futuro de la computación cuántica está aquí, y es una realidad aún con las limitaciones actuales. La investigación, publicada el miércoles en la revista Nature, muestra que los procesadores de 127 qubits que ya se encuentran en las computadoras cuánticas comerciales existentes son capaces de medir valores esperados en cálculos físicos, aunque este tipo de cálculo todavía puede producir errores. Para los investigadores Göran Wendin y Jonas Bylander de la Universidad Tecnológica de Chalmers (Suecia), el trabajo muestra que «a pesar de los errores, los procesadores cuánticos aún pueden ser útiles para algunos cálculos específicos», pero aún faltan varios años para que sean robustos. La demostración no establece la supremacía cuántica, que se entiende como la capacidad de resolver problemas que no pueden ser resueltos por las computadoras clásicas, pero sí demuestra que una de las ventajas de la computación cuántica actual (ventaja que ya está disponible) es eficiente y » más allá de los mejores métodos informáticos clásicos actuales. «capacidad» y el proceso de mitigación de fallas posterior al análisis.
Las supercomputadoras actuales, como la Summit de IBM, pueden manejar más de 200 mil millones de cálculos por segundo. Pero las partículas cuánticas pueden llegar a billones gracias a la superposición, una propiedad que permite que las partículas estén en dos estados, o cualquier superposición de ellos. De esta forma, aunque dos bits (un bit es la unidad más pequeña en la computación clásica) pueden almacenar un número, dos qubits pueden contener cuatro y diez qubits, 1.024 estados simultáneos, por lo que la capacidad aumenta por cada qubit adicional que se expandirá exponencialmente.
El problema es que las superposiciones cuánticas se degradan con cualquier interacción con el entorno hasta convertirse en clásicas (decoherencia): temperatura, electromagnetismo, vibraciones… cualquier perturbación crea ruido que consume potencia de cálculo y los tiempos de superposición multiplicativa reducidos a microsegundos producen fallos que se intentan mitigar programando, buscando partículas cercanas a la escurridiza Majorana y manteniendo la coherencia, o evitándolas en sistemas muy complejos, aislamiento y temperatura cero absoluta (-273 grados centígrados).
Más información
De esta manera, la computación cuántica tolerante a fallas es actualmente imposible con las tecnologías existentes y «fuera del alcance de los procesadores actuales», según los autores del estudio, aunque compañías como Google han dado pasos recientes en esta dirección.
Los investigadores de IBM Youngseok Kim, Andrew Eddins y Abhinav Kadala y otros autores han publicado ahora una demostración de que los procesadores cuánticos y el posprocesamiento analítico pueden generar, manipular y medir de forma fiable estados cuánticos tan complejos que sus propiedades no pueden Los cálculos exactos utilizan aproximaciones clásicas.
No se trata de la velocidad informática, se trata de la capacidad. «Ninguna computadora clásica tiene suficiente memoria para codificar las posibilidades calculadas por 127 qubits», dijeron los autores. Wendin y Bylander están de acuerdo: «La ventaja cuántica fundamental aquí es la escala, no la velocidad: 127 qubits codifican un problema en el que las computadoras clásicas no tienen suficiente memoria».
ventaja cuántica
«Estos resultados experimentales son posibles gracias a los avances en coherencia y calibración de los procesadores superconductores, y la capacidad de caracterizar y controlar el ruido de manera controlada. Estos experimentos demuestran la utilidad de la computación cuántica en la era de la tolerancia a fallas. [la actual] y demostrar herramientas fundamentales para realizar aplicaciones cuánticas a corto plazo», dicen los autores.
Un equipo internacional europeo en el que participa el profesor Adán Cabello de la Universidad de Sevilla ha demostrado medidas físicas que lograron observar el estado cuántico de los iones de estroncio durante todo el proceso, no solo al principio y al final. La película nunca antes vista, que duró una millonésima de segundo, fue citada por Physics World como uno de los avances más notables de 2020.
Uno de los primeros modelos comerciales de computadoras cuánticas de IBM.IBM
Para el presente estudio se ha utilizado el modelo de Ising, un paradigma para el estudio de transiciones ferromagnéticas en partículas. Pero el objetivo no es un proceso físico, sino demostrar que es posible realizar mediciones confiables de sistemas complejos utilizando computadoras cuánticas disponibles comercialmente, incluso si no son tolerantes a fallas. «La pregunta que plantea el artículo de Nature es: ¿Podemos hacer algo útil con los ordenadores cuánticos actuales, con un número reducido de qubits y una probabilidad de error relativamente alta? La respuesta del autor es sí, pero tiene truco: reducir los errores». Carlos Sabín, investigador del Departamento de Física Teórica Ramón y Cajal de la Universidad Autónoma de Madrid (UAM), al Science Media Center (SMC).
«Los autores muestran que su máquina [de IBM]tras reducir errores, sí que proporciona resultados fiables a la hora de calcular la magnitud física del sistema”, explica Sabín. Y añade: “Si estos resultados se confirman (por ejemplo, por un equipo de la competencia en Google), serán los primeros paso para demostrar la utilidad de las computadoras cuánticas relativamente pequeñas y ruidosas de hoy en día para ayudar a reducir los errores «. los valores pueden no corresponder a los sistemas físicos reales), al menos, el modelo de Ising [el utilizado en el experimento] Está inspirado físicamente, por lo que pueden existir modelos de complejidad similar que tengan aplicaciones más inmediatas y que también puedan ser atacados por máquinas y métodos similares basados en la mitigación en lugar de la corrección de errores”, concluye.
Juan José García-Ripoll, investigador científico del Instituto de Física Fundamental IFF-CSIC, ha destacado a SMC que «el trabajo es de gran calidad y demuestra la potencia de cálculo del ordenador cuántico de 127 qubits de IBM», ha resumido García-Ripoll. las conclusiones del estudio: «Tenemos una computadora cuántica que, aunque imprecisa, puede simular problemas de gran complejidad de interés en física; aunque las computadoras cuánticas pueden cometer errores, los protocolos permiten cancelarlos y obtener predicciones cuantitativas muy precisas; técnicas de simulación en las computadoras para tales problemas producen resultados que no son tan precisos como las computadoras cuánticas».
Para el físico español, el resultado «no es necesariamente definitivo», aunque la computación cuántica ha desarrollado procesadores con 413 qubits, también de IBM, como Osprey. «Es posible que otros científicos mejoren el estado del arte en redes de tensores [los sistemas clásicos usados para problemas como el abordado en Nature] Y tratar de igualar o superar lo que este procesador puede hacer con 127 qubits”, agregó.
Göran Wendin y Jonas Bylander tienen una opinión similar: «¿Este avance mejora las perspectivas de aplicar la computación cuántica a problemas de relevancia industrial? La respuesta es: probablemente no. Dichos algoritmos tendrían que involucrar muchos más qubits y más operaciones que puedan competir con los clásicos». supercomputadoras de alto rendimiento, estos cálculos cuánticos inevitablemente se perderán en el ruido».
Puedes escribir a rlimon@PeriodistasdeGénero.es y seguir a PeriodistasdeGénero Tecnología en Facebook y Twitter, o darte de alta aquí para recibir nuestra newsletter semanal.