Las computadoras cuánticas explotan la naturaleza aparentemente extraña pero probada del universo que hasta que una partícula interactúa con otra, su posición, velocidad, color, espín y otras propiedades cuánticas coexisten simultáneamente como una distribución de probabilidad sobre todas las posibilidades en un estado conocido como superposición. Las computadoras cuánticas utilizan partículas aisladas como sus bloques de construcción más básicos, basándose en cualquiera de estas propiedades cuánticas para representar el estado de un bit cuántico (o “qubit”). Entonces, mientras que los bits de computadora clásicos siempre existen en un estado mutuamente excluyente de 0 (baja energía) o 1 (alta energía), los qubits en superposición coexisten simultáneamente en ambos estados como 0 y 1.
Las cosas se ponen interesantes a mayor escala, ya que los sistemas de CC son capaces de aislar un grupo de partículas entrelazadas, que comparten un solo estado de superposición. Mientras que un solo qubit coexiste en dos estados, un conjunto de ocho qubits entrelazados (o “8Q”), por ejemplo, ocupa simultáneamente los 2 ^ 8 (o 256) estados posibles, procesando efectivamente todos estos estados en paralelo. Se necesitarían 57Q (que representan 2 ^ 57 estados paralelos) para que un QC supere incluso a la supercomputadora clásica más potente del mundo. Una computadora 64Q lo superaría en 100x (claramente logrando una ventaja cuántica) y una computadora 128Q lo superaría un trillón de veces.
En la carrera por desarrollar estas computadoras, la naturaleza ha introducido dos obstáculos importantes. Primero, las partículas cuánticas aisladas son altamente inestables, por lo que los circuitos cuánticos deben ejecutarse dentro de períodos de coherencia extremadamente cortos. En segundo lugar, medir el nivel de energía de salida de los qubits subatómicos requiere niveles extremos de precisión que las pequeñas desviaciones comúnmente frustran. Basadas en investigaciones universitarias, las principales empresas de control de calidad como IBM, Google, Honeywell y Rigetti desarrollan métodos de corrección de errores e ingeniería cuántica para superar estos desafíos a medida que escalan la cantidad de qubits que pueden procesar.
Tras el desafío de crear hardware funcional, se debe desarrollar software para aprovechar los beneficios del paralelismo, aunque no podamos ver lo que está sucediendo dentro de un circuito cuántico sin perder la superposición. Cuando medimos el valor de salida de los qubits entrelazados de un circuito cuántico, la superposición se colapsa en solo uno de los muchos resultados posibles. A veces, sin embargo, la salida da pistas de que los qubits interfirieron extrañamente consigo mismos (es decir, con sus contrapartes probabilísticas) dentro del circuito.
Los científicos de QC de UC Berkeley, University of Toronto, University of Waterloo, UT Sydney y otros lugares están desarrollando ahora una clase fundamentalmente nueva de algoritmos que detectan la ausencia o presencia de patrones de interferencia en la salida de QC para recopilar inteligentemente información sobre lo que sucedió adentro.
La pila de QC
Un control de calidad completamente funcional debe, por lo tanto, incorporar varias capas de una pila de tecnología novedosa, incorporando componentes de hardware y software. En la parte superior de la pila se encuentra el software de aplicación para resolver problemas de química, logística, etc. La aplicación generalmente realiza llamadas API a una capa de software debajo de ella (en general, un “compilador”) que traduce las llamadas a funciones en circuitos para implementar ellos. Debajo del compilador se encuentra una computadora clásica que alimenta los cambios de circuito y las entradas a la Unidad de procesamiento cuántico (QPU) debajo de él. La QPU generalmente tiene una capa de corrección de errores, una unidad de procesamiento analógico para transmitir entradas analógicas al circuito cuántico y medir sus salidas analógicas, y el propio procesador cuántico, que alberga las partículas entrelazadas y aisladas.
Source link