La computación cuántica entra en su etapa reina, la que separa la promesa del rendimiento real

Estamos viviendo un momento excepcional en plena carrera global por construir el ordenador cuántico. Sin ir más lejos, el director ejecutivo de IonQ, Niccolo de Masi, declaró recientemente ante el Congreso de Estados Unidos que «ha comenzado la era comercial de la computación cuántica», afirmando que la tecnología avanza lo suficientemente rápido como para transformar el poder económico, la capacidad industrial y la planificación de la seguridad nacional.

Cada semana, algún fabricante anuncia nuevos avances que acercan la tan esperada ventaja cuántica, el momento en que un ordenador cuántico supere a la computación clásica más potente, alimentando la sensación de que su llegada es inminente. Por ejemplo, el consorcio franco-alemán Quandela y Attocube Systems GmbH ha lanzado Lucy, un ordenador cuántico fotónico de 12 cúbits -el más potente de su categoría hasta la fecha- que, integrado con el superordenador Joliot-Curie, permitirá ejecutar flujos de trabajo cuántico-clásicos híbridos para investigación e industria. IBM, por su parte, ha anunciado Quantum Nighthawk, su procesador cuántico más avanzado hasta ahora, diseñado con una arquitectura optimizada para trabajar junto con software cuántico de alto rendimiento y posicionarse para ofrecer ventaja cuántica el próximo año.

En China, la empresa de semiconductores CHIPX ha presentado un chip cuántico que afirma ser hasta 1.000 veces más rápido que las GPU de Nvidia en el procesamiento de cargas de trabajo de IA. Google también ha comunicado un avance significativo con Quantum Echoes, un nuevo algoritmo que ha logrado la primera ventaja cuántica verificable en un problema potencialmente útil. Ejecutado en su chip Willow, de 105 cúbits, el algoritmo realizó un cálculo específico unas 13.000 veces más rápido que el mejor algoritmo clásico disponible. La comparación se llevó a cabo ejecutándolo en uno de los superordenadores más potentes del mundo.

Un ordenador cuántico es, en esencia, un ordenador que funciona como uno clásico, pero que incorpora la potencia exponencial de la mecánica cuántica y es capaz de explorar un gran número de posibilidades simultáneamente. Aunque el reciente auge pueda dar esa impresión, fue en la década de los noventa cuando la computación cuántica empezó a tomar forma y se asentaron sus bases tecnológicas: se definió el cúbit o bit cuántico, se exploró la distribución cuántica de la información y se desarrollaron los primeros prototipos.

En paralelo, se estableció teóricamente el concepto de ventaja cuántica: la capacidad de un algoritmo cuántico para superar en cientos o miles de veces la eficiencia de cualquier algoritmo clásico. Fue entonces cuando Peter Shor mostró cómo factorizar números de manera exponencialmente más rápida, y Lov Grover demostró búsquedas cuadráticamente más eficientes en bases de datos desordenadas.

Con el cambio de siglo, comenzaron las primeras demostraciones prácticas en múltiples aplicaciones. Entre ellas, destaca la simulación de moléculas sencillas -como el hidrógeno- en dispositivos cuánticos. Y en 2016 se produjo un hito decisivo: IBM Research puso por primera vez un ordenador cuántico en la nube, abriendo el acceso global a esta tecnología. Ese momento desencadenó un crecimiento acelerado: se triplicó el número de empresas dedicadas al desarrollo de ordenadores cuánticos y numerosos países lanzaron ambiciosos planes nacionales de inversión. El más llamativo fue el anuncio de China de una megainversión de10 billones de dólares para construir un centro de investigación cuántica, un movimiento que alimentó una carrera geopolítica que continúa hoy.

Hacia 2020, más compañías se sumaron a la competición y comenzaron a realizar pruebas de concepto para evaluar casos de uso en distintas industrias. Estas pruebas permitieron medir la madurez del hardware cuántico y avanzar significativamente en las técnicas de Corrección de Errores Cuánticos (QEC), fundamentales para operaciones fiables. La razón es clara: el gran cuello de botella sigue siendo mantener la coherencia cuántica.

Los cúbits, que se comportan como átomos y manipulan el giro de electrones para representar estados cuánticos, dependen de las propiedades de superposición y entrelazamiento. Pero preservar estas propiedades frente a cualquier interacción externa es extraordinariamente difícil. Por esta razón, la estabilidad del cúbit se ha convertido en el principal foco de investigación global. Entre 2025 y el final de la década se resolverán muchas incógnitas sobre la escalabilidad de los ordenadores cuánticos.

Aún no existe una tecnología de cúbit claramente ganadora: conviven enfoques basados en iones atrapados, fotones, defectos en diamantes, circuitos superconductores y otros más. La clave será desarrollar chips cuánticos potentes y sistemas más compactos, fáciles de gestionar y mucho menos dependientes de infraestructuras extremas -como temperaturas ultrabajas o complejos sistemas eléctricos- para su funcionamiento.

No está claro qué fabricante de hardware será capaz de dar el salto tecnológico -un desafío inmenso de fabricación e ingeniería- que, según lo describió en un artículo para el Financial Times el reciente premio Nobel de Física John Martinis, determinará el liderazgo en este campo. Por ello, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) ha creado recientemente la Iniciativa de Evaluación Cuántica (Quantum Benchmark Initiative).

El programa tiene como objetivo determinar si es viable construir a corto plazo (antes de 2033) un ordenador cuántico práctico y útil para la industria. El programa evalúa la plausibilidad de los conceptos de ordenador cuántico de cada empresa; analiza la viabilidad de su plan de I+D y, finalmente, valida la escalabilidad industrial. El programa analiza 18 empresas, una mezcla de startups y grandes fabricantes -entre ellos IBM y Google- de EEUU, Europa, Canadá y Australia.

Su propósito final es proporcionar una verificación imparcial y externa de las hojas de ruta de diferentes empresas para construir un ordenador cuántico tolerante a fallos. Esto contribuye a gestionar expectativas, contener el bombo publicitario y orientar a las partes interesadas del Gobierno de EEUU hacia enfoques viables para futuras inversiones y cuestiones de seguridad nacional. La computación cuántica entra en su etapa reina, marcada por un cambio de paradigma en el que programar significa operar con las leyes de la física cuántica.

Un momento que nos obliga a reflexionar sobre cómo prepararnos, qué habilidades adquirir y qué oportunidades aprovechar. Para navegar esta nueva etapa publiqué con Taylor and Francis el libro Quantum Computing Strategy: Foundations and Applicability, que desmitifica los conceptos cuánticos y presenta casos de uso en 11 industrias organizados por áreas como optimización, análisis estocásticos, inteligencia artificial y simulación molecular.

Son problemas que hoy requieren un gran esfuerzo computacional, pero que los ordenadores cuánticos podrían resolver en cuestión de instantes. *Elena Yndurain es directora ejecutiva, consejera independiente y profesora de Tecnología en el IE Business School.»,»description»:»Estamos viviendo un momento excepcional en plena carrera global por construir el ordenador cuántico. Sin ir más lejos, el director ejecutivo de IonQ, Niccolo de Masi, declaró…»

Ver artículo completo en El Mundo

También te podría gustar...