-
Revelan métodos que duplican velocidad y precisión en corrección de errores cuánticos con GPU.
-
Los avances en computación cuántica de Nvidia, ¿ponen en jaque la seguridad de Bitcoin?
Nvidia, una de las mayores compañías tecnológicas del mundo, publicó el 30 de septiembre un reporte en el que detalla cómo ha estado explorando la computación cuántica.
Con este paso, se suma a otras entidades que ya experimentan con infraestructura cuántica, como IonQ, IBM, el banco HSBC o incluso la Comisión de Bolsa y Valores de EE. UU. (SEC).
Desde Nvidia señalaron que «la computación cuántica promete transformar industrias», pero también aseguraron que ese desarrollo depende de resolver tres problemas claves: «corrección de errores, simulaciones de diseños de cúbits y optimización de tareas de compilación de circuitos».
Aunque todavía no existe un ordenador cuántico con capacidad suficiente para romper la criptografía que protege a Bitcoin y a la ciberseguridad en general, los avances de Nvidia en computación cuántica ofrecen pistas sobre cómo podría evolucionar ese escenario.
Sus investigaciones en corrección de errores, optimización de circuitos y simulación de sistemas cuánticos aceleran el desarrollo de procesadores más estables y escalables, reduciendo potencialmente los tiempos y los costos para llegar a máquinas más potentes.
Esto no significa que Bitcoin sea vulnerable hoy, pero sí que tecnologías como las que desarrolla Nvidia pudieran acortar la distancia hacia ordenadores capaces de desafiar los sistemas criptográficos actuales.
Corrección de errores cuánticos, la primera diana de Nvidia
Los cúbits son las unidades básicas de la computación cuántica y, a diferencia de los bits clásicos, pueden estar en varios estados a la vez. Esta propiedad permite cálculos paralelos masivos, pero también los hace muy sensibles al ruido y a errores.
Es como si los cúbits cuánticos fueran un coro de voces que cantaran en armonía para resolver problemas complejos al unísono, pero el más mínimo susurro del entorno puede desentonarlos y provocar errores.
Precisamente para contrarrestar esos «susurros» del entorno, la técnica de corrección de errores cuánticos (QEC, por sus siglas en inglés) emplea un conjunto de maniobras que el documento de Nvidia detalla como esenciales para manejar el ruido:
La QEC es la forma en que los investigadores destilan miles de cúbits físicos ruidosos en un puñado de qubits lógicos sin ruido, decodificando datos en tiempo real, detectando y corrigiendo errores a medida que surgen.
Informe sobre cuántica de Nvidia.
No solo hace falta mucha potencia de cálculo, sino también procesar los datos con muy poco retraso (latencia es el tiempo que pasa entre el envío de la información y su procesamiento), porque si se tardan microsegundos de más, los cúbits pueden perder su estado y el sistema deja de ser útil.
Para optimizar esa tarea de corrección de errores en computación cuántica, Nvidia colaboró con el Laboratorio de Software Cuántico de la Universidad de Edimburgo (Reino Unido).
En conjunto, desarrollaron un nuevo método de decodificación llamado AutoDEC, mediante la librería nominada “CUDA-Q QEC” de Nvidia.
Los métodos de decodificación en este ámbito son técnicas diseñadas para interpretar y corregir los errores que surgen en los cúbits debido al ruido, asegurando que los cálculos cuánticos sean precisos y fiables.
Así, según el reporte, el método AutoDEC logró «duplicar la velocidad y la exactitud» de la decodificación de errores cuánticos, gracias a la funcionalidad de decodificación paralela en GPU (unidad de procesamiento gráfico) que distribuye la tarea en muchos núcleos de procesamiento al mismo tiempo.
Al mismo tiempo, Nvidia colaboró con la empresa QuEra para desarrollar un decodificador basado en inteligencia artificial (IA).
Estos modelos de IA lograron «un aumento de 50 veces en la velocidad de decodificación, junto con una mejor precisión», según el informe.
La lógica detrás es entrenar previamente los modelos de IA con mucho cómputo pesado y, una vez entrenados, ejecutar inferencias mucho más rápidas en tiempo real, algo esencial para los códigos de mayor distancia que se prevé usar en futuros computadores cuánticos, según dicen desde Nvidia.
Segundo foco de Nvida: mejorar los circuitos cuánticos
Otro frente del trabajo de Nvidia fue la optimización de la compilación de circuitos cuánticos, es decir, la traducción de un algoritmo cuántico al hardware físico disponible.
Este proceso implica asignar cúbits lógicos (un tipo de cúbit) a posiciones físicas en el chip, un problema muy complejo que se asemeja a organizar piezas de un rompecabezas con millones de combinaciones posibles.
En colaboración con la compañía Q-CTRL y Oxford Quantum Circuits (OCQ), Nvidia creó un mecanismo acelerado por GPU que ofreció «hasta 600 veces más velocidad» en tareas de compilación, de acuerdo con el reporte.
El último eslabón cuántico estudiado por Nvidia
Finalmente, Nvidia orientó sus esfuerzos a la simulación numérica de sistemas cuánticos, un paso clave para comprender y predecir cómo interactúan los procesadores cuánticos y así diseñar cúbits más estables.
En colaboración con la Universidad de Sherbrooke y Amazon Web Services (AWS), «los investigadores vieron hasta 4.000 veces más rendimiento» al estudiar un cúbit transmon acoplado a un resonador, un tipo de experimento crítico para mejorar la calidad de los cúbits.
Un transmon es un tipo de cúbit superconductor diseñado para ser menos sensible al ruido eléctrico, y el resonador es un circuito que actúa como “caja de resonancia” para controlar y medir el cúbit.
Al acelerar la corrección de errores, la compilación de circuitos y la simulación de dispositivos, la empresa busca reducir cuellos de botella clave en la “carrera” por construir computadoras cuánticas prácticas.