El funcionamiento de un ordenador cuántico en 2024 no difiere mucho del funcionamiento de un ordenador cuántico en 2018. En esencia, tenemos el chip cuántico propiamente dicho, en el que los qubits físicos tienen que estar refrigerados a temperaturas de apenas 20 mili Kelvin. Es decir, una temperatura próxima al cero absoluto e inferior a la que encontramos en el espacio.
El procesador cuántico, a su vez, tiene que estar conectado a generadores de microondas y dispositivos de lectura de los estados cuánticos. Estos generadores de frecuencia y dispositivos de lectura están ubicados en una habitación o un espacio a temperatura ambiente. Es el llamado centro de control del procesador cuántico.
Foto: el procesador Willow de Google se programa de un modo artesanal, induciendo estados de superposición en los qubits mediante generadores de microondas, para leer posteriormente el estado de los qbits una vez completado el algoritmo que corresponda. Fuente: Google.
Por lo pronto, la “programación” de un computador cuántico se lleva a cabo mediante generadores de frecuencia, procesadores a temperaturas que están a temperaturas cercanas al cero absoluto y en condiciones en las que hay que enfrentarse a tasas de error muy elevadas para las que aún no hay métodos de corrección definitivos. IBM, por ejemplo, trabaja con tecnologías de mitigación en las que los errores tienen lugar, pero, hasta cierto punto se conocen, de modo que en los resultados se aplican factores de verificación calculados mediante diferentes técnicas.
Las “tripas” de un ordenador cuántico, por decirlo de un modo que se entienda, consisten en generadores de frecuencia, cientos de metros de cables y equipamiento extremadamente caro y especial, por no hablar de la cámara refrigerante que tiene que mantener el procesador a temperaturas cercanas al cero absoluto. Además, el espacio ocupado es el de varios armarios, ya sea en la misma estancia donde esté el procesador propiamente dicho, o en otras estancias separadas.
La comercialización de estos ordenadores cuánticos no está cercana en ningún caso. IBM está ofreciendo ya servicios de computación cuántica más o menos comerciales, aunque con una audiencia limitada a investigación en diferentes campos de la ciencia, sin que haya aplicaciones útiles a la vista. El diseño modular de los IBM Quantum System II ha propiciado que IBM haya compartido un ambicioso roadmap de aquí a 2033, donde el objetivo es tener ordenadores cuánticos de decenas de miles de qubits. Para ello tendrá que conseguir que sus chips cuánticos sean mucho más pequeños y compactos, al tiempo que optimizar el plano de control y ofrecer herramientas de desarrollo más amigables.
En el momento actual, los ordenadores cuánticos se programan de un modo parecido a como se programaban los superordenadores Eniac a mediados del siglo pasado con tarjetas perforadas. Ahora no son tarjetas perforadas, pero sí generadores de microondas y dispositivos de medida de los estados colapsados de los qubits cuando finaliza el procesamiento de un algoritmo cuántico.
Aún hay muchos cabos sueltos en la computación cuántica
De momento, el estado de la computación cuántica está más en un estado teórico que práctico. La supremacía cuántica anunciada por Google con Willow, no deja de ser más una forma de validar el modelo de la computación cuántica como potencialmente capaz de abordar tareas que los superordenadores clásicos no podrían abarcar.
La corrección de errores es otro apartado complejo. Ya lo mencionaba Feynman en sus papers de los años 80 del siglo pasado. Y, en estas décadas, apenas se ha avanzado en una dirección que permita hablar de una corrección de errores suficientemente robusta como para abordar problemas de la vida real.
Foto: Willow es importante, más que por la supremacía cuántica, por haber permitido demostrar que la tasa de error puede reducirse a medida que se agrupan más qubits físicos en qubits lógicos. Fuente: Google.
El paradigma de computación cuántica se basa en su capacidad para manejar 2^n estados simultáneamente, siendo “n” el número de qubits de los procesadores cuánticos. Los ordenadores clásicos tienen que recorrer secuencialmente los estados para resolver las tareas de computación clásica, usando registros de “n” bits. Y el procesador cuántico Willow ha demostrado que simular el muestreo aleatorio de los circuitos cuánticos (con puertas de uno o dos qubits) con 105 qubits con un ordenador clásico (el superordenador Frontier) es una tarea que precisaría de 10^25 años.
Willow es importante por otros motivos más allá de esa supremacía cuántica (inútil en la práctica). Ha aumentado el tiempo de coherencia cuántica en el que los qubits se mantienen en estados de superposición sin colapsar, hasta los 100 ms. Y ha demostrado que la tasa de error puede reducirse a medida que aumenta el número de qubits en un procesador cuántico, agrupando un número variable de qubits físicos en un qubit lógico.
Foto: un ordenador cuántico, en 2024, sigue siendo irrealizable comercialmente. Es importante tener esto en cuenta, lo cual no resta valor ni interés a los desarrollos de empresas como Google, IBM, Microsoft, o cualquier otra que esté investigando en el campo de la computación cuántica. Fuente: Google.
Son logros mucho más relevantes que el de la supremacía cuántica. Sycamore, en 2018, también obtuvo la supremacía cuántica con sus 54 qubits, aunque poco después un ordenador clásico conseguiría completar la tarea de simulación de los circuitos cuánticos aleatorios en un tiempo manejable.
De todos modos, recuerda que la foto tan bonita que nos han mostrado de Willow, es solo la punta del iceberg de los ordenadores cuántico. Es como si nos mostrasen la foto de un procesador Intel o AMD, mientras que la electrónica de control ocupara una habitación entera y necesitase de un sistema de refrigeración del tamaño de una nevera.