Juan Pablo Paz, doctor en ciencias físicas en la UBA Investigador Superior Conicet, explica uno de los grandes hitos de la ciencia actual.
El miércoles pasado, un artículo en la revista Nature, una de las publicaciones científicas más prestigiosas, daba cuenta de lo que podría ser un hito en el campo de la computación cuántica. La información decía que el procesador cuántico de Google, llamado Sycamore, completó una operación de cálculo en 200 segundos, ejecución que a la computadora convencional más rápida del mundo le llevaría unos 10.000 años. El resultado alcanzado con el experimento permitió a los investigadores del gigante informático afirmar que alcanzaron la supremacía cuántica, un concepto acuñado por el físico estadounidense John Preskill en 2012. Dicha noción sostiene que se alcanzará ese estado cuando un sistema cuántico realice una tarea de cómputo que sobrepase las que se pueden ejecutar con una computadora clásica.
Tras la publicidad de la proeza, IBM, competidora de Google en este terreno, salió a bajarle el precio al anuncio al sostener que no eran miles de años los que le llevaría a un sistema clásico resolver la tarea, sino dos días y medio. No obstante, más allá de la batalla comercial, lo que pocos discuten es que el mundo está ante un nuevo umbral tecnológico.
La diferencia fundamental entre la física clásica y la cuántica. Del bit al qubit. Los caminos que se abren y los problemas que se plantean.
Por esta razón, para tratar de entender qué significa este hito e intentar desentrañar qué es la computación cuántica, Página/12 conversó con una de las máximas referencias en el país en esta área, Juan Pablo Paz, doctor en ciencias físicas en la UBA, profesor titular e Investigador Superior Conicet. Quien, además de haber sido declarado Investigador de la Nación Argentina y multipremiado, es también el director del Grupo de Información y Fundamentos de Cuántica de la Facultad de Ciencias Exactas; y corresponsable con Christian Schmiegelow del primer Laboratorio de Iones y Átomos Fríos (LIAF) de América Latina, inaugurado formalmente en julio pasado con la presencia del Premio Nobel de física de 2012, David Wineland.
De las computadoras convencionales a las cuánticas
Para empezar a poner en contexto de dónde partimos y hacia dónde vamos, Paz explicó que “las computadoras ordinarias son dispositivos que sirven para almacenar y procesar información, que se representa en el estado de un objeto material en código binario (secuencias de ceros y unos). Por ejemplo, en los discos rígidos de la computadora, el material magnético, que mirado con una lupa son como granitos de pequeños imanes como los de la heladera, tienen por convención un polo norte y un polo sur. Si apuntan arriba es un cero, abajo, un uno. Estados binarios que se utilizan para representar información. Son los bits. Pero estos granitos magnéticos son grandes desde el punto de vista de los átomos: tiene cien mil millones de átomos, y solo dos estados posibles”.
En 1981, Richard Feynman, un físico brillante y excéntrico que había recibido el Nobel de Física en 1965, “empezó a fantasear con la idea de procesar información a escala atómica y la posibilidad de procesar cómputos en un dispositivo que evolucione siguiendo las leyes de la física cuántica”, contó Paz. ¿Para qué? Según explicó el especialista “en la escala atómica los átomos ponen de manifiesto ciertas características, una dualidad entre comportamiento ondulatorio y de partículas, donde los electrones a veces se manifiestan como partículas y otras como ondas deslocalizadas. Tienen la propiedad de estar en más de un lugar a la vez, de recorrer muchas trayectorias al mismo tiempo. La idea de Feynman era aprovechar esta característica de desdoblamiento que no puede ser obtenida en una computadora ordinaria, porque de lo contrario nunca llegaríamos a simular las leyes de la naturaleza donde las partículas obedecen a la física cuántica y los problemas de cálculo aumenta exponencialmente”.
De los bits a los qubits
Pero para lograr ese salto, el desafío era diseñar computadoras que respondieran no a las leyes de la física clásica sino a la cuántica, donde los objetos pueden estar en dos estados simultáneos. Y ese paso se dio al pasar de los bits a los qubits para almacenar, procesar y transmitir la información. Mientras las computadoras clásicas almacenan la información en bits, secuencias de ceros y unos, que pueden tener solo dos estados posibles, en las computadoras cuánticas la unidad mínima de información es el qubit (quantum bit). Un objeto casi esotérico que, cumpliendo las leyes de la mecánica cuántica, puede adoptar los estados 0 o 1, o ambos al mismo tiempo. Este estado de superposición cuántica aumenta la capacidad de procesar información al permitir recorrer varios caminos de manera simultánea. Pero, además, tiene otra propiedad extraña: el entrelazado cuántico, que les permite a los átomos afectarse entre sí a pesar de estar separados por grandes distancias.
Átomos naturales vs átomos artificiales
Las computadoras convencionales utilizan en su mayoría semiconductores de silicio para sus circuitos integrados. Pero, ¿en qué se basan los equipos cuánticos? Al respecto, Paz contó que “hay diferentes tecnologías compitiendo en este momento. Una es la que utiliza Google, otra, la que usamos nosotros en el laboratorio, que es la de átomos atrapados. Se llama trampa de iones, y permite manipular átomos individuales”. Y señaló que “una virtud es que los átomos son todos iguales entre sí, pero atraparlos es más difícil y los métodos de control son complicados, aunque se han hecho muchos avances”.
“Las computadoras de Google e IBM no utilizan átomos naturales sino artificiales. Son sistemas más grandes que un átomo natural pero que tienen propiedades similares y se comportan de acuerdo con las leyes de la mecánica cuántica. Son pequeños anillitos de material superconductor, que es un material que si se lo enfría lo suficiente deja de tener resistencia eléctrica, en los que la corriente circula en un sentido o en el contrario. El sentido horario representa un cero, y el antihorario un uno. La física de estos dispositivos se comporta como en verdaderos átomos. Pueden existir en esos dos estados y en superposición. La diferencia es que para los átomos naturales, los dispositivos para atraparlos son difíciles de estabilizar cuando se trata de muchos átomos, que además hay que lograr que interactúen. Con los artificiales, la ventaja es que para fabricarlos se puede utilizar la industria de la microelectrónica que ya existe y la ciencia de materiales que está muy desarrollada, y pueden permitir que esta tecnología vea la luz”.
El super chip
El chip de Google, el Sycamore, detalló el físico argentino, “es una grilla de seis filas por nueve columnas, compuesta de 54 anillitos, de los cuales uno no les funcionó. Esta grilla superconductora está conectada entre sí por pequeñas guías de ondas, pequeñas cavidades que transmiten luz, no en el rango visible. Son microondas que viajan de un qubit a otro enviando información y cambian de estado como uno necesita para ejecutar un programa. El ingenio humano ha logrado construir objetos más grandes que los átomos, formados por muchos átomos, que se comportan como se comportaría un único átomo. Pero estos átomos artificiales, cuya fabricación es compleja, no salen todos exactamente iguales, como sí son los naturales. Es decir, estos qubit van a tener ciertas diferencias, aunque el problema ha sido resuelto para los 54. Es una incógnita saber si se puede escalar para lograr una computadora de miles de qubits. Hay un paso gigantesco y no está claro que esta tecnología vaya a servir para esto”.
Un universo diminuto en una caja grande
Pero a pesar de los avances, pensar en tener una computadora cuántica en el escritorio parecer un horizonte lejano. No sólo por los costos sino por su tamaño. En este punto, la tecnología cuántica pareciera estar en una situación similar a la de los comienzos de la computación electrónica, cuando las computadoras ocupaban una habitación.
Porque si bien el chip superveloz tiene unos centímetros, alrededor de 3 por 3, con un montón de conectores que salen de sus lados, que son los dispositivos de control, todo está dentro de un criostato, “un gran termo de tres metros por tres, porque tiene que ser enfriado a temperaturas cercanas al cero absoluto (-273.15°C)”. Sin embargo, su logro no es nada menor. “Esta computadora de Google es experimental, pero es la primera completamente programable que puede lograr que se ejecute cualquier cómputo. Aunque, con 54 qubits, es todavía pequeña”, remarcó Paz.
Un mundo extraño y nada afecto a ser mirado
“El principal problema que afecta a las computadoras cuánticas es su extremada fragilidad frente a la interacción con cualquier objeto externo. Un qubit puede ser cero, puede ser uno, y si no lo medís puede ser cero y uno a la vez. Pero si algo está interactuando con la computadora cuántica, es como si lo estuviera midiendo y definiendo un estado. Para que las superposiciones cuánticas sean duraderas, que es lo que se necesita para hacer un cómputo cuántico, tiene que estar extremadamente aislada del exterior. Y esta es la base de por qué se hicieron 54 qubits y no 54 mil, porque es muy difícil lograr que un objeto de algunos centímetros se comporte como lo predice la mecánica cuántica. En la escala que vivimos, cuando tirás una pelota y le llega a otra persona, lo que vemos es una trayectoria, un camino. En el mundo cuántico, un electrón, que sería nuestra pelota, habría recorrido muchos caminos a la vez para llegar. Es algo que parece imposible y es anti-intuitivo, pero así funciona”.
Ruido y errores
Las mínimas interacciones con el exterior generan una evolución en el proceso cuántico, que puede considerarse como un error. Y si bien en las computadoras tradicionales también hay ruido en la transmisión de datos, y protocolos de redundancia para corregir y proteger la información, el fenómeno es más crítico en el mundo cuántico. En este campo, la teoría cuántica de corrección de errores, trabajó Paz, quien remarcó que “cuánticamente es mucho más difícil y, de hecho, se pensó durante mucho tiempo que no era posible. En el caso cuántico, cuando estás enviando algo que no es ni un cero ni un uno, un qubit, no podés ‘mirarlo’ porque lo estás destruyendo y transformando en algo diferente. El desarrollo de las teorías de corrección está muy avanzado y todo apunta a que el próximo experimento de Google va a ser implementar un algoritmo que use estos protocolos de protección cuántica de errores”.
Esto se toca con otra área en la que investigan Paz y su equipo, la transición entre el comportamiento cuántico y el clásico, para “entender cómo se van perdiendo estas superposiciones cuando el objeto interactúa con su entorno, proceso denominado decoherencia, que determina cómo las cosas que son ceros y unos a la vez se vuelven cero o uno”.
Un pequeño paso para la máquina, pero un gran salto para la tecnología
“Hasta ahora las computadoras cuánticas que existían eran más chiquitas que esta de 54 qubits, y no eran completamente programables. Hay una IBM con cinco qubits a la que uno se puede conectar y operar a distancia. Cualquiera de estas podían hacer cosas que se logran simular en una computadora ordinaria para obtener el mismo resultado. Por eso, en la comunidad científica el resultado del experimento de Google es visto con mucho respeto y considerado muy significativo”, señaló el director del Grupo de Cuántica.
Para el especialista, lo que viene es el desafío de desarrollar computadoras más grandes, con cientos de bits cuánticos, para que sean útiles desde el punto de vista de las disciplinas científicas y la ingeniería de materiales. Tanto para estudiar las propiedades de sistemas naturales, de interés para la física, la química y la ingeniería, o la criptografía, que involucra la factorización de números grandes, es necesario un poder de cálculo mayor. En este último campo, lo que se juega es la seguridad informática. Una computadora cuántica podría vulnerar con facilidad los algoritmos de encriptación de clave pública, cuyo funcionamiento se basa en el producto de dos números primos muy grandes elegidos al azar para conformar la clave de descifrado, razón por la cual hay hay muchos investigadores trabajando en lo que se conoce como la criptografía post cuántica. Para Paz, “hay realmente un cambio de paradigma”. En una “carrera en la que hace cinco años entraron a jugar los grandes inversores corporativos”.
Un pabellón cuántico
Si bien el desarrollo es embrionario, en la Facultad de Ciencias Exactas de la UBA, en el primer piso del Pabellón 1 de la Ciudad Universitaria, funciona el LIAF, fundado por Paz y Schmiegelow. “Logramos construir un laboratorio del que estamos orgullosos, aunque no fue nada fácil la experiencia de trabajar en los últimos cuatro años con cero apoyo”, remarcó el investigador. Allí, consiguieron atrapar iones individuales en una cámara de vacío, todo un logro en América Latina.