Nota del editor: Este es parte de una serie de ensayos virtuales de expertos de NCSA sobre temas actuales que impactan el campo de la computación de alto rendimiento y la investigación.
La Misión de NCSA en la Computación Cuántica
Por Santiago Núñez-Corrales, Investigador Científico Principal de Cuántica de NCSA
El hecho de que las leyes físicas de nuestro universo contengan la receta para realizar la computación es simplemente extraordinario. John Archibald Wheeler describió cuán intrincada e intensa es la relación entre la física y la información en su artículo fundacional de 1991, uno que tiene consecuencias profundas para la ciencia, la tecnología e incluso la estética. Esa relación es tan fuerte que la lógica matemática le permitió a Alan Turing imaginar un dispositivo de computación abstracto para el cual se pueden construir y operar mecanismos reales utilizando energía y materia. Se puede decir que le debemos una gran parte de nuestra experiencia humana contemporánea, desde las supercomputadoras hasta Internet, a lo que Eugene Wigner llamó la “Efectividad Irrazonable de las Matemáticas”.
La computación cuántica, descrita por primera vez por Yuri Manin, Paul Benioff, Richard Feynman y David Deutsch en la década de 1980 como la posibilidad teórica de utilizar la mecánica cuántica para resolver problemas de mecánica cuántica más rápido que con las computadoras clásicas, lleva nuestra extraordinaria relación con la computación y la información a nuevas alturas. Desde este trabajo temprano hasta el floreciente ecosistema de computación cuántica de hoy, ha sucedido mucho. Los físicos e ingenieros han descubierto cómo construir dispositivos que albergan bits cuánticos (cúbits) y mantienen su estado el tiempo suficiente para realizar un trabajo preliminar útil. Se ha establecido todo un campo, el estudio de los algoritmos cuánticos, para comprender qué tipos de problemas son solubles con estos sistemas y cuán eficientes pueden ser estas soluciones.
El hardware cuántico ha pasado de ser experimentos en laboratorios académicos a ser productos que se venden como unidades desplegables o a las que se puede acceder a través de la nube. Desde grandes nombres de la industria tecnológica hasta cientos de nuevas empresas emergentes, la inversión de capital en el gobierno y el sector privado ha fomentado el establecimiento de un mercado de alrededor de $1.5 mil millones para 2026 y un valor económico potencial en billones de dólares para 2035. Detrás de la maduración del mercado de la computación cuántica se encuentra la expectativa de una mayor capacidad para resolver problemas difíciles, problemas del tipo que pueden tener un gran impacto en la economía y algunos de los grandes desafíos de nuestro tiempo que siguen siendo inalcanzables con nuestros recursos informáticos tradicionales.
Al mismo tiempo, debemos recordarnos constantemente que la computación cuántica está pasando de su infancia a una adolescencia aún problemática. Al igual que con cualquier tecnología avanzada, también pasa por el Ciclo Hype de Gartner y parece que estamos directamente en la fase de exageración. Una variedad relativamente grande de clases de plataformas de hardware cuyo diseño está en constante cambio indica que aún no hemos llegado a una tecnología definitiva que se convierta en estándar. Estos son todavía Dispositivos Cuánticos de Escala Intermedia Ruidosos que producen resultados poco confiables debido a su susceptibilidad a perturbaciones de varios tipos. El hecho de que los dispositivos cuánticos tiendan a operar en regímenes de temperatura y vacío fuera de los valores habituales que se encuentran en cualquier lugar del universo es revelador de cuán delicados son los estados cuánticos. La tolerancia a fallas sigue estando distante en el horizonte, aunque los avances recientes apuntan en esa dirección. Y hay preguntas fundamentales sobre cuán escalables son estos dispositivos, y particularmente la escalabilidad del entrelazamiento, un recurso cuántico clave.
Lo que sabemos hasta ahora sobre las situaciones en las que los algoritmos cuánticos pueden ser efectivos sugiere un pequeño número de problemas con aceleraciones grandes, otros con aceleraciones más modestas y muchos donde no hay ventaja. A un nivel más abstracto, el estado actual de la técnica sugiere que las clases de problemas solubles por computadoras clásicas son las mismas que las clases de problemas resueltos por computadoras cuánticas, incluso si estas últimas tienen más recursos físicos que las primeras, aunque las preguntas matemáticas detrás de ello necesitan ser mejor investigadas. Todavía programamos dispositivos cuánticos con lenguajes de muy bajo nivel, ya sea enviando pulsos o especificando circuitos, lo que es a la vez minucioso e ineficiente. Compare esto con el vasto panorama de los lenguajes de programación de alto nivel de hoy, desde C hasta Python y JavaScript, que nos permite incluso la posibilidad de discutir cuáles preferimos y cuáles no nos gustan.
En resumen, el estado actual de la computación cuántica tiene un parecido sorprendente con el de la computación clásica en la década de 1950. Los transistores todavía se utilizaban experimentalmente en el hardware, los programas almacenados solo se habían implementado recientemente de maneras repetibles, pero torpes, y la arquitectura de las computadoras era tierra por explorar. Quiero sugerir que, precisamente por el punto en el que estamos en la evolución de la computación cuántica, la postura más productiva es el optimismo restringido por la evidencia: tanto las promesas como las dificultades son reales y cerrar la brecha requiere una aldea. Y en la Universidad de Illinois, afortunadamente tenemos una grande.
Santiago Núñez-Corrales, Investigador Científico Principal de Cuántica de NCSA
¿Cuál debería ser nuestra misión en NCSA en la computación cuántica? Como señala acertadamente nuestro director Bill Gropp, la “A” en NCSA significa “Aplicaciones”, una llamada natural a aprovechar la computación avanzada y el software científico para catalizar descubrimientos y, en última instancia, permitir impactos positivos en la ciencia y la sociedad. La computación cuántica encaja naturalmente en el corazón de ella. Durante casi dos años, hemos elaborado una visión de la computación cuántica que está científicamente informada y templada por la experiencia de nuestros colegas en el Centro de Ciencia y Tecnología de Información Cuántica de Illinois y alimentada por nuestra historia de logros.
Como resultado, tres objetivos principales explican la mayor parte del trabajo reciente en NCSA. El primero es contribuir al avance de las plataformas de computación cuántica hacia una ciberinfraestructura cuántica confiable. El trabajo continuo hacia gemelos digitales para dispositivos cuánticos superconductores y la integración HPC-QPU nos ha permitido establecer relaciones profundas y enriquecedoras con experimentalistas cuánticos en el campus.
El segundo es influir en el ecosistema de software cuántico de maneras que aumenten la productividad de los desarrolladores mediante la creación de nuevos lenguajes de programación cuántica de alto nivel y la exploración de cómo podría ser un análogo cuántico de la Interfaz de Paso de Mensajes (MPI) para escribir software de manera transparente en una infraestructura clásica-cuántica distribuida en el futuro.
Finalmente, nuestro personal ha comenzado a prepararse para atender las necesidades de los investigadores científicos que buscan nuevas posibilidades en las tecnologías cuánticas, al tiempo que dirigen el 1er Taller sobre Computación Cuántica Ampliamente Accesible en PEARC24 en julio, proporcionando a los participantes una comprensión integral del estado actual y las perspectivas de la computación cuántica (QC) y sus aplicaciones, centrándose en cómo puede beneficiar a la comunidad más amplia interesada en integrar tecnologías cuánticas en sus instalaciones de computación de investigación tradicionales.
Cualquiera que sea la forma que tome la revolución de la computación cuántica, NCSA está lista para contribuir.