La empresa quiere hacer realidad los ordenadores cuánticos a gran escala en solo 10 años
A finales de 2022, IBM cumplió un récord al conseguir el mayor sistema de computación cuántica con un procesador que contenía 433 bits cuánticos, o qubits, los componentes fundamentales del procesamiento cuántico de la información. Ahora, la empresa ha puesto sus miras en un objetivo mayor: una máquina de 100.000 qubits que pretende construir en un plazo de 10 años.
El 22 de mayo, IBM hizo este anuncio en la cumbre del G7, celebrada en Hiroshima (Japón). La empresa se asociará con la Universidad de Tokio (Japón) y la Universidad de Chicago (EE UU) en una iniciativa de 100 millones de dólares (unos 93 millones de euros) para llevar la computación cuántica a una operación a gran escala. En ella, la tecnología podría abordar problemas acuciantes que ningún superordenador estándar puede resolver.
O, al menos, no podrá resolverlos por sí solo. La idea es que los 100.000 qubits trabajen junto a los mejores superordenadores "clásicos" para lograr nuevos avances en el descubrimiento de fármacos, la producción de fertilizantes, el rendimiento de las baterías y otras aplicaciones. "Lo llamo supercomputación cuántico-céntrica", explica Jay Gambetta, vicepresidente de Cuántica de IBM, a MIT Technology Review en una entrevista mantenida en Londres la semana pasada.
La informática cuántica almacena y procesa información, aprovechando las propiedades únicas de partículas fundamentales: electrones, átomos y pequeñas moléculas pueden existir en múltiples estados energéticos a la vez. Este fenómeno se conoce como superposición, y los estados de las partículas pueden entrelazarse entre sí. Eso significa que la información puede codificarse y manipularse de formas novedosas, abriendo la puerta a una serie de tareas informáticas imposibles.
Hasta ahora, los ordenadores cuánticos no han conseguido nada útil que no puedan hacer los superordenadores estándar. Esto se debe, en gran parte, a que no disponen de suficientes qubits y a que los sistemas se ven fácilmente alterados por pequeñas perturbaciones en su entorno, que los físicos denominan "ruido".
Los investigadores han estado explorando formas de contener los sistemas ruidosos, pero muchos prevén que los sistemas cuánticos tendrán que ampliarse para ser útiles. De este modo, podrán dedicar una gran fracción de sus qubits a corregir los errores inducidos por el ruido.
IBM no es la primera empresa en soñar a lo grande. Google ha manifestado que su objetivo es llegar a 1.000.000 de qubits para finales de esta década, aunque la corrección de errores significa que solo 10.000 estarán disponibles para realizar cálculos. IonQ, con sede en Maryland, aspira a tener 1.024 "qubits lógicos", cada uno formado por un circuito de corrección de errores de 13 qubits físicos, preparados para realizar cálculos en 2028. PsiQuantum, con sede en Palo Alto (como Google), también aspira a construir un ordenador cuántico de un 1.000.000 de qubits, pero no ha revelado su objetivo temporal ni sus requisitos de corrección de errores.
Debido a estas condiciones, citar el número de qubits físicos es una especie de pista falsa: los detalles de cómo están construidos, que afectan a factores como su resistencia al ruido y su facilidad de funcionamiento, son cruciales. Las empresas implicadas suelen ofrecer medidas adicionales de rendimiento, como el "volumen cuántico" y el número de "qubits algorítmicos". En la próxima década, los avances en la corrección de errores, el rendimiento de los qubits y el objetivo de mitigar errores mediante software, así como las grandes diferencias entre los distintos tipos de qubits, harán que esta carrera sea complicada de seguir.
Perfeccionando el hardware
En la actualidad, los qubits de IBM se fabrican con anillos de metal superconductor, que siguen las mismas reglas que los átomos cuando funcionan a temperaturas de milikelvin, apenas una fracción de un grado por encima del cero absoluto. En teoría, estos qubits pueden funcionar como un gran conjunto. Sin embargo, según la hoja de ruta de IBM, los ordenadores cuánticos que está construyendo solo pueden ampliarse hasta 5.000 qubits con la tecnología actual. La mayoría de los expertos opinan que eso no es suficiente para lograr una computación útil. Para crear ordenadores cuánticos potentes, los ingenieros tendrán que ir más allá, y eso requerirá de nuevas tecnologías.
Por ejemplo, se necesita un control de los qubits más eficiente, desde el punto de vista energético. Ahora, cada uno de los qubits superconductores de IBM requiere unos 65 vatios para funcionar. "Si quiero hacer 100.000, eso requiere mucha energía: voy a necesitar algo del tamaño de un edificio, una central nuclear y mil millones de dólares para hacer esa máquina", asegura Gambetta. "Eso es ridículo. Para pasar de 5.000 a 100.000, está claro que necesitamos innovación".
IBM ya ha realizado experimentos de pruebas preliminares, que demuestran que los circuitos integrados basados en la tecnología de "semiconductores complementarios de óxido metálico" (CMOS, por sus siglas en inglés) pueden instalarse junto a los qubits fríos para controlarlos con solo unas decenas de milivatios. Más allá de eso, admite Gambetta, aún no existe la tecnología necesaria para la supercomputación cuántica. Por ello, la investigación académica es una parte vital del proyecto.
Los qubits existirán en un tipo de chip modular, que está empezando a tomar forma en los laboratorios de IBM. La modularidad será esencial cuando resulte imposible poner suficientes qubits en un solo chip, y requiere de interconexiones que transfieran información cuántica entre los módulos. El Kookaburra de IBM es un procesador multichip de 1.386 qubits con un enlace de comunicación cuántica, si bien está en fase de desarrollo, su lanzamiento se ha previsto para 2025.
Otras innovaciones necesarias son aquellas que aportan las universidades. Según Gambetta, los investigadores de Tokio y Chicago ya han avanzado mucho en ámbitos como los componentes y las innovaciones de comunicación, que podrían ser partes vitales del producto final. En su opinión, en la próxima década es probable que se produzcan muchas más colaboraciones entre la industria y el mundo académico: "Tenemos que ayudar a las universidades a hacer lo que mejor saben hacer". Y Google tienen una opinión similar. En otro acuerdo, destina 50 millones de dólares (unos 47 millones de euros) a financiar la investigación en computación cuántica en estas mismas universidades.
Gambetta asegura que el sector también necesita más "científicos computacionales cuánticos". Es decir, personas capacitadas para tender puentes entre los físicos que crean la máquina y los desarrolladores que buscan diseñar y aplicar algoritmos útiles.
El software que funcione en máquinas cuánticas también será de vital importancia. "Queremos crear la industria lo antes posible, y la mejor forma de hacerlo es desarrollando el equivalente de nuestras bibliotecas de software clásico", afirma Gambetta. Por eso, en los últimos años IBM se ha esforzado por poner sus sistemas a disposición de los investigadores académicos. Los procesadores cuánticos de IBM pueden trabajar a través de la nube mediante interfaces personalizadas, que requieren un conocimiento mínimo de los aspectos técnicos de la computación cuántica. Además, explica que se han escrito unos 2.000 artículos de investigación sobre experimentos con los dispositivos cuánticos de la empresa: "Para mí, eso es un buen indicio de que la innovación está sucediendo".
No hay garantías de que los 100 millones de dólares destinados a este proyecto basten para alcanzar el objetivo de los 100.000 qubits. "Sin duda, hay riesgo", reconoce Gambetta.
Joe Fitzsimons, consejero delegado de Horizon Quantum, una empresa de desarrollo de software cuántico con sede en Singapur, también está de acuerdo. "Es poco probable que vaya a ser un viaje tranquilo y sin sorpresas".
No obstante, añade que es un riesgo que hay que correr: la industria tiene que afrontar el miedo al fracaso y los retos técnicos a los que se enfrenta la computación cuántica a gran escala. El plan de IBM parece razonable, admite Fitzsimons, aunque hay muchos obstáculos en potencia. "A esta escala, los sistemas de control serán un factor limitante y tendrán que evolucionar para soportar un número tan grande de qubits de forma eficiente", concluye Fitzsimons.