
El paradigma de la computación cuántica ha merecido de los mayores esfuerzos teóricos y técnicos de las últimas décadas. Su realización promete avances en procesamiento de datos como nunca se han visto. No obstante, por cada avance que se hace en esta área, múltiples problemas aparecen, impidiendo la realización de estos sistemas de forma estable, mucho menos escalables.
Como su nombre indica, estas computadoras están inmersas en leyes cuánticas -esas que cuando las leés, dan dolor de cabeza-. Mientras que en la computación clásica la unidad de información es el bit, el cual puede ser 0 o 1, en esta computación se utilizan qubits, los cuales pueden ser 0, 1 o una superposición de ambos.
Si ya te parece loco que algo sea dos cosas a la vez -lo que se conoce formalmente como superposición cuántica-, sumale a eso que los qubits pueden saber, en tiempo real, el estado de otro qubit, producto del fenómeno de entrelazamiento cuántico.
Estos dos fenómenos son los pilares de la computación cuántica. En el caso de desarrollar chips que funcionen por medio de qubits, se podría lograr una forma de procesar datos inalcanzable hasta el momento: en vez de analizar situaciones de forma secuencial, o partir del total de situaciones y analizar grupos de ellas de forma secuencial en paralelo, analizarían todas las situaciones al mismo tiempo. Una utopía en el procesamiento de datos.
Veamos un ejemplo simple para visualizar lo trascendental de este tipo de procesamiento de ser alcanzado. Imaginá que debés resolver un laberinto. Uno, instintivamente, comienza a probar opciones hasta encontrar el camino correcto -de forma secuencial-. También podrías llamar a algunos amigos y dividirse el laberinto en partes, para que cada uno pruebe los caminos que le fueron asignados, con lo que podrías encontrar la solución más fácilmente a que si lo hicieras solo -similar al procesamiento secuencial en paralelo-. Ahora bien, también podrías llamar a la misma cantidad de amigos que de posibles caminos existan y que cada uno pruebe un camino. En este último caso, inevitablemente alguno resolverá el laberinto.
Así es el funcionamiento de una computadora cuántica a grosso modo. Ya que hasta no terminar el análisis puede ser 0, 1 o una combinación de ambas, esto les permite analizar una gran cantidad de información en paralelo.
Pero, como fue mencionado al principio, los problemas no paran de surgir. Al encontrarnos en escalas subatómicas, los sistemas son susceptibles a lo que se llama ruido. Perturbaciones de temperatura, partículas u otros factores externos que irrumpen en el proceso rompen la superposición cuántica y, por ende, el sistema se ve atado a continuas fallas. Sumado a la precisión técnica y la delicadeza necesaria a la hora de su manipulación, las computadoras cuánticas se volvieron en un rompecabezas en el que parece que siempre faltan piezas.
En este contexto es en el que irrumpe Microsoft. El pasado 19 de febrero, publicó en sus redes sociales el lanzamiento de Majorana 1: el primer chip cuántico de la historia. Según informes oficiales, se trata de un chip de 8 qubits con la capacidad de ser menos susceptible a ruidos y que podrá ser escalable su desarrollo y producción no en unas décadas, como era previsto por el ámbito científico, sino en pocos años. ¿De qué se trata todo esto?
Lo que respecta a su funcionamiento es complejo y repleto de tecnicismos. En palabras corrientes, podemos decir que utilizaron una arquitectura totalmente distinta a la empleada en el resto de trabajos. Basaron sus qubits en lo que se llama “estados 0 de los fermiones de Majorana” en un nuevo estado de la materia, llamado “superconductividad topológica”. Estos fermiones fueron teorizados hace casi un siglo por el físico italiano Ettore Majorana, y su descubrimiento -no como fermiones, sino como grupo de partículas que actúan como tales- no fue hasta el 2014. De esta manera, Majorana 1 utiliza grupos de electrones que actúan como un fermión de Majorana cuando se los pone en un estado de superconductividad topológica, logrado a bajas temperaturas y sobre placas de materiales semiconductores y superconductores.
Utilizando estos conceptos innovadores, lograron reducir la influencia del ruido en los chips, pudiendo ejecutar los qubits sin que el exterior rompa la superposición existente.
Por otro lado, por medio de su organización en tetrones de qubits, es posible detectar los errores ocurridos, algo que con otros sistemas de computación cuántico no es menos que complejo e impreciso.
Como última característica, hay que destacar su potencial escalabilidad. Microsoft ha afirmado que estas estructuras, aunque complejas en producción, son escalables, permitiendo diseñar chips con más qubits sin que haya problemas con el ruido externo y la superposición cuántica. De esta manera, se podrían reducir en tan solo unos años las décadas que se esperaban para lograrlo.
Ahora bien, no hay que ilusionarse con que en la próxima década nuestras computadoras vayan a ser de tipo cuánticas. Las publicaciones que sustentan el funcionamiento de Majorana 1 son trabajos científicos recientes -menos de un año de antigüedad-, por lo que se debe esperar a que otros científicos o empresas comprueben que de verdad es viable -y real- la propuesta de Microsoft. El proceder científico de verificación se mantiene en todos los tipos de investigación, por lo que estos trabajos no son la excepción.
Así mismo, de ser verificados los procesos que permiten el funcionamiento de estos chips, aún existen grandes dificultades. En primer lugar, las temperaturas a las que se debe encontrar Majorana 1, aunque son un poco elevadas respecto a las requeridas para el resto de sistemas cuánticos, siguen siendo criogénicas. Precisa estar a tan solo 1 kelvin -equivalente a -272,15 °C-, lo que impide construir computadoras cuánticas fuera de laboratorios preparados. Por otro lado, los algoritmos cuánticos conocidos hasta el momento son incompatibles con la invención de Microsoft, por lo que se debería crear uno. Esto último implica un extenso trabajo de desarrollo.
Teniendo este gran desarrollo en manos, pero también observando las dificultades que aún se encuentran, la empresa publicó una hoja de ruta donde detalla los pasos a seguir y objetivos fijados para los próximos años. Múltiples puntos de la lista llaman la atención, como la asociación con otras empresas y organismos nacionales -como la Agencia de Investigación y Desarrollo del Departamento de Defensa de los E.E.U.U. y la DARPA- o la solución a las limitaciones mencionadas anteriormente. Sin embargo, entre estos puntos se destaca que planifican, en unos años, lanzar Majorana 2: un chip cuántico que cuente con 1.000.000 -sí, leíste bien, un millón- de qubits.
El futuro próximo será clave en la historia de la computación cuántica, tanto por la verificación de las investigaciones de Microsoft como por los próximos pasos que tiene planeado la empresa. Siendo una propuesta tan reciente -aunque la empresa asegura que desde hace 20 años iniciaron con el proyecto- no podemos determinar aún si esto es el inicio de una revolución tecnocientífica o tan solo un error más. De todas maneras, e independientemente a como prosiga esta historia, vemos reflejado en Majorana 1 el esfuerzo por entender y lograr nuevos desarrollos. Es un recordatorio de que aún no entendemos todo.
Escrito por: Dorsch, Santiago