Me parece que una pregunta extremadamente relevante para las perspectivas de la computación cuántica sería cómo la complejidad de ingeniería de los sistemas cuánticos escala con el tamaño. Es decir, es más fácil de construir 1 ordenadores -qubit de un n equipo -qubit. En mi opinión, esto es más o menos análoga al hecho de que es más fácil de resolver analíticamente n 1 problemas -cuerpo de un n -cuerpo problema, ya que el entrelazamiento es el principal factor de motivación detrás de la computación cuántica en el primer lugar.
Mi pregunta es la siguiente: Parece que realmente debería importarnos cómo crece la 'dificultad' de construir y controlar un sistema cuántico de cuerpos con n . Arreglar una arquitectura de compuerta, o incluso un algoritmo: ¿existe una dificultad en principio derivada del hecho de que una computadora de n- bits es un problema cuántico de muchos cuerpos? Y, matemáticamente hablando, nuestra comprensión de cómo los fenómenos cuánticos se convierten en fenómenos clásicos es bastante pobre. Aquí la dificultad podría definirse de varias maneras, y la pregunta que nos preocuparía, más o menos, es controlar una máquina de 1000 qubits (es decir, preservar la coherencia de sus funciones de onda) "simplemente" 100 veces más difícil que controlar unMáquina de 10 bits, o 100 2 , o 100 ! o 100 100 ? ¿Tenemos alguna razón para creer que es más o menos lo primero y no lo segundo?
fuente
Respuestas:
Esta es una pregunta en la que he estado pensando durante más de 10 años. En 2008 era estudiante y le dije a mi profesor de computación cuántica que quería estudiar la "complejidad física" de realizar algoritmos cuánticos para los cuales se sabía que la "complejidad computacional" se beneficiaba de la computación cuántica.
Por ejemplo, la búsqueda de Grover requiere puertas cuánticas en oposición aO(n)puertas clásicas, pero ¿quépasasi el costo de controlar las puertas cuánticas se escala comon4mientras que para las puertas clásicas es solon?O(n−−√) O(n) n4 n
Él instantáneamente respondió:
Estos son los pasos que deberías seguir:
Ahora puede ver por qué tuvo que venir aquí para hacer la pregunta y la respuesta no estaba en ningún libro de texto:
El paso 1 depende del tipo de implementación (RMN, fotónica, SQUIDS, etc.) El
paso 2 es muy difícil. La dinámica libre de decoherencia se ha simulado sin aproximaciones físicas para 64 qubits , pero la dinámica no perturbativa no markoviana con decoherencia está actualmente limitada a 16 qubits .
El paso 4 depende del algoritmo. Por lo tanto, no existe una "escala universal" de complejidad física, incluso si se trabaja con un tipo particular de implementación (como NMR, Photonics, SQUID, etc.) El
paso 5 depende de la elección del código de corrección de errores
Entonces, para responder a sus dos preguntas específicamente:
Depende de su elección en el Paso 1 , y nadie ha podido pasar del Paso 1 al Paso 3 para obtener una fórmula precisa de la complejidad física con respecto al número de qubits, incluso para un algoritmo específico. Así que esta sigue siendo una pregunta abierta, limitada por la dificultad de simular dinámicas de sistemas cuánticos abiertos.
fuente
Complejidad del circuito
Creo que el primer problema es comprender realmente qué se entiende por "controlar" un sistema cuántico. Para esto, podría ayudar comenzar a pensar en el caso clásico.
Decoherencia
Siguiendo los comentarios,
Esto se divide en dos regímenes. Para dispositivos cuánticos a pequeña escala, antes de la corrección de errores, se podría decir que estamos en el régimen NISQ . Esta respuesta es probablemente más relevante para ese régimen. Sin embargo, a medida que su dispositivo se agrande, habrá rendimientos decrecientes; cada vez es más difícil cumplir la tarea de ingeniería solo para agregar algunos qubits más.
Lo que es realmente convincente es ver cómo cambian los coeficientes en estas relaciones a medida que su error de puerta se acerca cada vez más al umbral de corrección de errores. Parece que no puedo poner mis manos en un cálculo adecuado (estoy seguro de que Andrew Steane hizo uno en algún momento. Posiblemente fue una charla a la que fui), pero explotan muy mal, así que quieres estar operando con un margen decente por debajo del umbral.
Dicho esto, hay algunas suposiciones que deben hacerse sobre su arquitectura antes de que estas consideraciones sean relevantes. Por ejemplo, tiene que haber suficiente paralelismo; debe poder actuar en diferentes partes de la computadora simultáneamente. Si solo hace una cosa a la vez, los errores siempre se acumularán demasiado rápido. También desea poder ampliar su proceso de fabricación sin que las cosas empeoren. Parece que, por ejemplo, los qubits superconductores serán bastante buenos para esto. Su rendimiento depende principalmente de la precisión con la que puede hacer diferentes partes del circuito. Lo haces bien para uno, y puedes "simplemente" repetir muchas veces para hacer muchos qubits.
fuente
Entonces, en cierto sentido, la "fidelidad" podría dar una estimación de cuán propenso a errores es el procesador. Si usó la computadora cuántica para calcular la dinámica de la reacción química, o cualquier otro problema, que podría usar la superposición para lograr la aceleración cuántica (o incluso la "supremacía cuántica" eventualmente) podría verse afectado por la decoherencia, o incluso qué tan rápido logra una superposición , podría desempeñar un papel en la operación libre de errores. La "fidelidad" podría dar una estimación de error, ya sea que usemos 1 qubit o digamos 200 qubits. Incluso podría "diseñar" un hamiltoniano, para dar qubits de alta fidelidad, en el caso adiabático, donde se producen errores de fuga.
Tenga en cuenta que en la práctica, las tasas de error de 99.5% + son altamente deseables, para facilitar la corrección eficiente de errores. Las tasas de error podrían ser del tipo de lectura de espines de electrones entre qubits con precisión. En tal caso, las tasas de error de 99.5% o 99.8% (confianza de tipo sigma cinco o seis) requerirían menos gastos generales (corrección de errores) al escalar el sistema.
fuente