Pensándolo bien...

null LA TRANSICIÓN A LA CRIPTOGRAFÍA POSCUÁNTICA

Hace unos treinta años, el matemático Peter Shor inició uno de los proyectos ambiciosos más ambiciosos conocido, la idea de construir un ordenador basado en las reglas de la mecánica cuántica y lo convirtió en una amenaza concreta para el mundo digital. Shor diseñó un algoritmo capaz de resolver dos problemas matemáticos que, para los ordenadores clásicos, requerirían tiempos descomunales. Esos problemas afectan a la seguridad de internet, desde las páginas web a correos electrónicos, pasando por las cuentas bancarias y monederos digitales, que  dependen de la creencia de que nadie puede reventarlos en un plazo útil.

Durante décadas, aquella amenaza fue sobre todo teórica. Los especialistas pensaban que, para ejecutar el algoritmo de Shor a gran escala, haría falta una máquina gigantesca, con millones de cúbits. Esa cifra parecía tan lejana que el problema podía aplazarse. Los ordenadores cuánticos reales apenas manejaban decenas o cientos de cúbits, muy lejos de las cantidades necesarias para “violentar” los sistemas criptográficos más usados. Sin embargo, esa distancia empieza a reducirse más deprisa de lo previsto.

Dos avances recientes han reforzado esa impresión. Por un lado, un grupo de investigadores del Instituto Tecnológico de California ha presentado el diseño teórico de un ordenador cuántico basada en átomos neutros que, en lugar de requerir millones de cúbits, podría romper ciertos códigos con decenas de miles. Por otro, investigadores de Google han desarrollado una versión más eficiente del algoritmo de Shor para abordar la criptografía de curva elíptica, utilizada de forma masiva en sistemas modernos. Ninguno de los dos equipos posee una máquina capaz de ejecutar esos planes, pero ambos resultados apuntan en la misma dirección, como es que la computación cuántica útil podría llegar antes de lo supuesto.

El trabajo de Caltech se apoya en dos tendencias decisivas. La primera es el progreso de los cúbits de átomos neutros. En los últimos años, los físicos han aprendido a atrapar, ordenar y manipular miles de átomos individuales mediante haces de luz. Aunque estos cúbits son más lentos que otros, tienen una ventaja y es que pueden reorganizarse con flexibilidad y conectarse con otros cúbits lejanos dentro de una misma matriz. Esa propiedad resulta valiosa para la corrección de errores.

La segunda tendencia es el perfeccionamiento de los códigos correctores de errores, en especial los llamados qLDPC, que significa quantum Low-Density Parity-Check, es decir, códigos cuánticos de verificación de paridad de baja densidad. Son un tipo de código de corrección de errores cuánticos diseñado para proteger la información de los cúbits, que son muy frágiles y sufren ruido, decoherencia y fallos durante el cálculo. La idea central es parecida a la de algunos códigos clásicos y consiste en hacer muchas “comprobaciones” sobre la información, pero de forma eficiente, de modo que cada comprobación involucre pocos cúbits y cada cúbit participe en pocas comprobaciones. Esa es la “baja densidad”.  En un ordenador cuántico, los errores son inevitables, ya que los cúbits pierden información con enorme facilidad. Para combatir ese problema, los investigadores combinan muchos cúbits físicos para formar un cúbit lógico, más estable. Los códigos tradicionales requerían cantidades inmensas de cúbits físicos para proteger poca información útil. Los nuevos códigos qLDPC prometen una relación mejor, porque permiten construir más cúbits lógicos con menos recursos, aunque exigen conexiones complejas entre elementos distantes. Justamente ahí los átomos neutros ofrecen una ventaja importante.

El grupo de Caltech reunió a físicos experimentales, teóricos e incluso herramientas de inteligencia artificial para optimizar esos códigos. El objetivo era responder a una pregunta concreta: ¿cuál sería el ordenador cuántico más pequeño capaz de vulnerar sistemas criptográficos reales? Sus simulaciones sugieren que una máquina de unos 10.000 átomos podría tardar años en romper ciertos esquemas, mientras que otra, de alrededor de 100.000 reduciría el tiempo a meses o días, según el sistema atacado. No se trata aún de un dispositivo existente, sino de un horizonte previsto de ingeniería.

Al mismo tiempo, Google continuó refinando el propio algoritmo de Shor. Sus investigadores mostraron que el coste cuántico de atacar la criptografía de curva elíptica puede ser mucho menor de lo que se pensaba. Esa reducción no elimina las dificultades técnicas, pero sí comprime el calendario. Lo que antes parecía una amenaza de varias décadas ahora empieza a percibirse como un desafío de años.

La consecuencia es clara. La transición hacia la criptografía poscuántica ya no puede entenderse como una precaución remota, sino como una necesidad estratégica. Instituciones como el NIST han estandarizado nuevos algoritmos resistentes a ataques clásicos y cuánticos, y gobiernos y empresas empiezan a fijar calendarios de migración. El mensaje es inequívoco: todavía no existe la máquina capaz de ejecutar el ataque definitivo, pero esperar a que aparezca para actuar sería un error.

Quedan obstáculos por superar. Las proyecciones dependen de ritmos de corrección de errores, estabilidad y escalabilidad que nadie ha demostrado todavía a gran escala. El cambio de tono, sin embargo, es revelador. La computación cuántica ha dejado de ser solo una promesa fascinante. Está entrando en una fase en la que sus consecuencias prácticas, para la seguridad, la economía y la política tecnológica, comienzan a ser imposibles de ignorar. Y para la investigación científica, claro está.

Sopa ded letras: LA TRANSICIÓN A LA CRIPTOGRAFÍA POSCUÁNTICA

Soluciones: LA IMPORTANCIA DE LA GRAMATICA EN CIENCIA