Máquinas cuánticas y Nvidia utilizan aprendizaje de máquina para acercarse a una computadora cuántica corregida de errores

Máquinas cuánticas y Nvidia utilizan aprendizaje de máquina para acercarse a una computadora cuántica corregida de errores

Hace aproximadamente un año y medio, la startup de control cuántico Quantum Machines y Nvidia anunciaron una asociación profunda que reuniría la plataforma informática DGX Quantum de Nvidia y el hardware avanzado de control cuántico de Quantum Machines. Durante un tiempo no escuchamos mucho sobre los resultados de esta asociación, pero ahora comienza a dar frutos y acerca a la industria un paso más hacia el santo grial de una computadora cuántica con corrección de errores.

En una presentación a principios de este año, las dos empresas mostraron que son capaces de utilizar un modelo de aprendizaje por refuerzo listo para usar en la plataforma DGX de Nvidia para controlar mejor los qubits en un chip cuántico de Rigetti manteniendo el sistema calibrado.

Yonatan Cohen, cofundador y CTO de Quantum Machines, señaló cómo su empresa ha buscado durante mucho tiempo utilizar motores de cálculo clásicos generales para controlar procesadores cuánticos. Esos motores de cálculo eran pequeños y limitados, pero eso no es un problema con la plataforma DGX extremadamente potente de Nvidia. El santo grial, dijo, es ejecutar la corrección de errores cuánticos. Aún no estamos ahí. En cambio, esta colaboración se centró en la calibración, específicamente en calibrar los llamados «pulsos π» que controlan la rotación de un qubit dentro de un procesador cuántico.

A primera vista, la calibración puede parecer un problema de una sola vez: calibras el procesador antes de comenzar a ejecutar el algoritmo en él. Pero no es tan simple. «Si miras el rendimiento de las computadoras cuánticas hoy en día, obtienes una alta fidelidad», dijo Cohen. «Pero luego, los usuarios, cuando usan la computadora, generalmente no es a la mejor fidelidad. Se desvía todo el tiempo. Si podemos recalibrarlo frecuentemente utilizando este tipo de técnicas y hardware subyacente, entonces podemos mejorar el rendimiento y mantener la fidelidad alta durante mucho tiempo, que es lo que se necesitará en la corrección de errores cuánticos».

Ajustar constantemente esos pulsos en tiempo casi real es una tarea extremadamente intensiva en cálculos, pero, dado que un sistema cuántico siempre es ligeramente diferente, también es un problema de control que se presta a ser resuelto con la ayuda del aprendizaje por refuerzo.

«A medida que las computadoras cuánticas se están escalando y mejorando, surgen todos estos problemas que se convierten en cuellos de botella, que son realmente intensivos en cálculos», dijo Sam Stanwyck, gerente de productos de grupo de Nvidia para la computación cuántica. «La corrección de errores cuánticos es realmente un gran problema. Esto es necesario para desbloquear la computación cuántica tolerante a fallas, pero también cómo aplicar exactamente los pulsos de control correctos para obtener el máximo provecho de los qubits».

Stanwyck también enfatizó que no había un sistema antes de DGX Quantum que permitiera el tipo de latencia mínima necesaria para realizar estos cálculos.

Resulta que incluso una pequeña mejora en la calibración puede llevar a mejoras masivas en la corrección de errores. «El retorno de la inversión en calibración en el contexto de la corrección de errores cuánticos es exponencial», explicó el gerente de productos de Quantum Machines, Ramon Szmuk. «Si calibras un 10% mejor, eso te da un rendimiento de error lógico exponencialmente mejor en el qubit lógico que está compuesto por muchos qubits físicos. Así que hay mucha motivación aquí para calibrar muy bien y rápido».

Vale la pena destacar que este es solo el comienzo de este proceso de optimización y colaboración. Lo que el equipo realmente hizo aquí fue simplemente tomar un puñado de algoritmos listos para usar y ver cuál funcionaba mejor (TD3, en este caso). En total, el código real para ejecutar el experimento era de solo unas 150 líneas. Por supuesto, esto se basa en todo el trabajo que los dos equipos también hicieron para integrar los diversos sistemas y construir la pila de software. Sin embargo, para los desarrolladores, toda esa complejidad puede ocultarse, y se espera que las dos empresas creen cada vez más bibliotecas de código abierto con el tiempo para aprovechar esta plataforma más grande.

Szmuk enfatizó que para este proyecto, el equipo solo trabajó con un circuito cuántico muy básico, pero que también se puede generalizar a circuitos profundos. «Si puedes hacer esto con una puerta y un qubit, también puedes hacerlo con cien qubits y 1,000 puertas», dijo.

«Diría que el resultado individual es un pequeño paso, pero es un pequeño paso hacia la resolución de los problemas más importantes», agregó Stanwyck. «La computación cuántica útil va a requerir la integración estrecha de la supercomputación acelerada, y ese puede ser el desafío de ingeniería más difícil. Entonces, poder hacer esto realmente en una computadora cuántica y ajustar un pulso de una manera que no solo esté optimizado para una pequeña computadora cuántica, sino que sea una plataforma escalable y modular, creemos que estamos realmente en camino de resolver algunos de los problemas más importantes en la computación cuántica con esto».

Stanwyck también dijo que las dos empresas planean continuar esta colaboración y poner estas herramientas en manos de más investigadores. Con los chips Blackwell de Nvidia disponibles el próximo año, también tendrán una plataforma informática aún más potente para este proyecto.

En resumen, la colaboración entre Quantum Machines y Nvidia está avanzando hacia la corrección de errores cuánticos mediante la calibración de pulsos, lo que puede mejorar significativamente el rendimiento de las computadoras cuánticas en el futuro. Este es solo el comienzo de un proceso de optimización continuo que promete resolver algunos de los desafíos más importantes de la computación cuántica.