¿Existe alguna prueba formal de que la computación cuántica es o será más rápida que la computación clásica?

15

En lugar de evidencia empírica, ¿con qué principios formales hemos demostrado que la computación cuántica será más rápida que la computación tradicional / clásica?

Alex Moore-Niemi
fuente
55
@vzn: el modelo de circuito tiene implementación en trampas de iones, que pronto deberían poder manejar alrededor de 10 qubits. La máquina Dwave no implementa el modelo adiabático, sino algo llamado "recocido cuántico", que actualmente no se sabe que produzca incluso una aceleración conjetural para cualquier problema.
Peter Shor
44
@vzn: Siempre puedes mirar este artículo de Wikipedia (vinculado desde el artículo al que te vinculaste ). La computación adiabática cuántica debe permanecer en el estado fundamental. El recocido cuántico no necesita. De Wikipedia: "Si la tasa de cambio [en un procesador de recocido cuántico] del campo transversal es lo suficientemente lenta, el sistema permanece cerca del estado fundamental del Hamiltoniano instantáneo, es decir, el cálculo cuántico adiabático". DWave recientemente dejó de decir que estaba haciendo "computación adiabática cuántica", y comenzó a decir que estaba haciendo "recocido cuántico".
Peter Shor
2
@hadsed: Estoy bastante seguro de que DWave implementará un Hamiltoniano más versátil pronto, pero eso no resolverá el problema que tienen de que están operando a una temperatura superior a la brecha de energía.
Peter Shor
55
@vzn podría o debería? conjetura o predicción? ¿Puedes alguna vez decidir sobre las palabras que debes usar?
Sasho Nikolov
55
@vzn: si crees que Feynman no consideraría necesario / útil / bueno hacer simulaciones, entonces realmente no entiendes a Richard Feynman. No confunda una diferencia de actitud de su parte hacia lo que consiste el "conocimiento", con la pereza intelectual y la inclinación por construir castillos en el cielo. El suyo era un enfoque inquisitivo y exigente de la ciencia que debe ser emulado; si no se preocupaba mucho por las pruebas matemáticas en particular, eso solo indica que no era un matemático principal. (¡Sin embargo, tampoco está abordando la cuestión como matemático!)
Niel de Beaudrap

Respuestas:

23

Esta es una pregunta que es un poco difícil de desempaquetar si no está familiarizado con la complejidad computacional. Como la mayoría del campo de la complejidad computacional, los resultados principales son ampliamente creídos pero conjeturales.

Las clases de complejidad típicamente asociadas con la computación clásica eficiente son (para algoritmos deterministas) y (para aleatorización). La contraparte cuántica de estas clases es . Las tres clases son subconjuntos de (una clase muy poderosa). Sin embargo, nuestros métodos de prueba actuales no son lo suficientemente fuertes como para mostrar definitivamente que no es lo mismo que . Por lo tanto, tampoco sabemos cómo separar formalmente de , ya queB P P B Q P P S P A C E P P S P A C E P B Q P P B Q P P S P A C EPAGsiPAGPAGsiQPAGPAGSPAGUNCmiPAGPAGSPAGUNCmiPAGsiQPAGPAGsiQPAGPAGSPAGUNCmi, Separando estas dos clases es más duro que el ya formidable tarea de separar de P S P A C E . (Si pudiéramos probar P B Q P , obtendríamos inmediatamente una prueba de que P P S P A C E , por lo que demostrar que P B Q P tiene que ser al menos tan difícil como el ya difícil problema de demostrando P P S P A C EPAGPAGSPAGUNCmiPBQPPPSPACEPBQPPPSPACE) Por esta razón, dentro del estado actual de la técnica, es difícil obtener una prueba matemática rigurosa que muestre que la computación cuántica será más rápida que la computación clásica.

Por lo tanto, usualmente confiamos en evidencia circunstancial para separaciones de clase de complejidad. Nuestra evidencia más fuerte y más famoso es el algoritmo de Shor que nos permite factor en . Por el contrario, no conocemos ningún algoritmo que pueda tener en cuenta B P P , y la mayoría de la gente cree que uno no existe; esa es parte de la razón por la que usamos RSA para el cifrado, por ejemplo. Hablando en términos generales, esto implica que es posible que una computadora cuántica factorice eficientemente, pero sugiere que puede no ser posible que una computadora clásica factorice eficientemente. Por estas razones, el resultado de Shor ha sugerido a muchos que B Q P es estrictamente más poderoso que B P PBQPBPPBQPBPP(y por lo tanto también más poderoso que ).P

No conozco ningún argumento serio de que , excepto de aquellas personas que creen en colapsos de clase de complejidad mucho más grandes (que son una minoría de la comunidad). Los argumentos más serios que he escuchado contra la computación cuántica provienen de posturas más cercanas a la física y argumentan que B Q P no capta correctamente la naturaleza de la computación cuántica. Estos argumentos generalmente dicen que los estados coherentes macroscópicos son imposibles de mantener y controlar (por ejemplo, porque hay algún obstáculo físico fundamental aún desconocido), y por lo tanto, los operadores en los que se basa B Q P no pueden realizarse (incluso en principio) en nuestro mundo .BQP=PBQPBQPAG

Si comenzamos a pasar a otros modelos de computación, entonces un modelo particularmente fácil de trabajar es la complejidad de la consulta cuántica (la versión clásica que corresponde a ella es la complejidad del árbol de decisión). En este modelo, para las funciones totales podemos demostrar que (para algunos problemas) los algoritmos cuánticos pueden lograr una aceleración cuadrática, aunque también podemos mostrar que para las funciones totales no podemos hacerlo mejor que una aceleración de potencia 6 y creemos que la cuadrática es la mejor posible. Para funciones parciales, es una historia totalmente diferente, y podemos demostrar que se pueden lograr aceleraciones exponenciales. Una vez más, estos argumentos se basan en la creencia de que tenemos una comprensión decente de la mecánica cuántica y que no existe una barrera teórica mágica desconocida para evitar que se controlen los estados cuánticos macroscópicos.

Artem Kaznatcheev
fuente
buena respuesta, ¿cómo se relacionan y B Q P , supongo (a partir de la respuesta) que B P P B Q P , pero límites o conjeturas para esto? BPPBQPBPPBQP
Nikos M.
1
"porque hay un obstáculo físico fundamental aún desconocido ..." en realidad hay muchos obstáculos físicos conocidos documentados copiosamente por los experimentadores, si ellos u otros desconocidos son obstáculos serios es una pregunta abierta ...
vzn
44
@Nikos: es una contención de clases simplemente probada. Para esbozar: podemos caracterizar B P P mediante cálculos deterministas (y reversibles) que actúan sobre la entrada, algunos bits de trabajo preparados como 0 y algunos bits aleatorios que son 0 o 1 uniformemente al azar. En el cálculo cuántico, la preparación de los bits aleatorios puede simularse mediante transformaciones unitarias de un solo bit adecuadas (aunque las llamamos 'qubits' cuando permitimos tales transformaciones). Por lo tanto, podemos mostrar fácilmente que B P P B Q P , aunque no sabemos si esta contención es estricta. BPPBQPBPPBPPBQP
Niel de Beaudrap
@NieldeBeaudrap, gracias, ¿por qué no son equivalentes? significado ? me falta algo aquí, ¿no es (también?) B P P una clase para todos los cálculos aleatorios? BQPBPPBPP
Nikos M.
1
@ Nikos: no, no es una clase para todos los cálculos aleatorios. Tiene una definición matemática particular que dicta qué problemas contiene, y no se sabe que contenga B Q P ni nada parecido. Para otro ejemplo, P P también es una clase aleatoria (donde la respuesta solo tiene que ser correcta con probabilidad> 1/2, aunque no por un margen significativo) que contiene P B P P B Q P P P y N P P P , donde se espera que todas las contenciones sean estrictas.siPAGPAGsiQPAGPAGPAGPBPPBQPPPNPPP
Niel de Beaudrap
7

Para la complejidad computacional, no hay pruebas de que las computadoras cuánticas sean mejores que las computadoras clásicas debido a lo difícil que es obtener límites inferiores en la dureza de los problemas. Sin embargo, hay configuraciones en las cuales una computadora cuántica funciona mejor que una clásica. El más famoso de estos ejemplos está en el modelo de caja negra en el que tiene acceso a través de la caja negra a una función y desea encontrar la x única para la que f se evalúa como 1. La medida de complejidad en este caso es el número de llamadas a ff:{0,1}n{0,1}xff. Clásicamente, no puede hacerlo mejor que adivinar al azar, lo que toma en promedio consultas Ω ( 2 n ) a f . Sin embargo, usando el algoritmo de Grover puedes lograr la misma tarea en O ( xΩ(2n)f.O(2n)

Para obtener más separaciones comprobables, puede analizar la complejidad de la comunicación donde sabemos cómo probar los límites inferiores. Hay tareas que dos computadoras cuánticas que se comunican a través de un canal cuántico pueden lograr con menos comunicación que dos computadoras clásicas. Por ejemplo, calcular el producto interno de dos cadenas, uno de los problemas más difíciles en la complejidad de la comunicación, se acelera cuando se usan computadoras cuánticas.

Philippe Lamontagne
fuente
4

Artem Kaznatcheev proporciona un resumen sobresaliente de algunas razones clave por las que esperamos que las computadoras cuánticas sean fundamentalmente más rápidas que las computadoras clásicas, para algunas tareas.

Si desea una lectura adicional, puede leer las notas de clase de Scott Aaronson sobre computación cuántica , que discuten el algoritmo Shor y otros algoritmos que admiten algoritmos cuánticos eficientes pero no parecen admitir ningún algoritmo clásico eficiente.

No es allí está BQP un modelo preciso de la realidad, o es algo que nos pueda impedir la construcción de un ordenador cuántico, ya sea por razones de ingeniería o debido a barreras físicas fundamentales: un debate sobre si los ordenadores cuánticos se pueden construir en la práctica? Puede leer las notas de la conferencia de Scott Aaronson que resumen los argumentos que otros han planteado y también leer su publicación de blog con su opinión sobre ese debate , pero probablemente no tendremos una respuesta definitiva hasta que alguien realmente construya una computadora cuántica que pueda realizar tareas no triviales (como factorizar números grandes).

DW
fuente
"pero probablemente no tendremos una respuesta definitiva hasta que alguien realmente construya una computadora cuántica que pueda realizar tareas no triviales (como factorizar números grandes)". esto es algo de ilusiones (que impregna el campo) que raya en una oración previa no sequitur wrt, "el debate sobre si las computadoras QM se pueden construir en la práctica, o si hay barreras, etc.". es posible que las computadoras QM escalables no sean físicamente realizables y no se disponga de pruebas teóricas o experimentales, solo informes de obstáculos formidables (es decir, casi el estado actual del campo experimental).
vzn
-2

El edificio básico de la computación cuántica es la transformación unitaria, esta es la herramienta principal para acelerar en muchos algoritmos en la literatura. Los algoritmos que usan unidades unitarias usan propiedades teóricas de números / gráficos de los problemas a mano: búsqueda de períodos, aceleraciones en caminatas cuánticas, etc. Las aceleraciones en problemas naturales aún son difíciles de alcanzar, como se señaló. Si factorizar números grandes es el fin en sí mismo para la computación cuántica, sigue siendo una pregunta abierta. Otras preguntas abiertas como QNC, su separación de NC aún podrían proporcionar pistas evasivas sobre lo que pueden hacer las computadoras cuánticas. Pero, si el objetivo de la computadora cuántica es factorizar grandes números, ¡aún puede ser factible, en sí mismo en algún futuro, con implicaciones aterradoras (por supuesto, para la privacidad personal)!

usuario3046538
fuente
1
En realidad, la aceleración (por ejemplo, en el algoritmo de Shor) se basa en el principio de superposición de QM (que está ligeramente relacionado con la unitaridad)
Nikos M.
El "principio de superposición" es matemáticamente equivalente a la afirmación de que las distribuciones cuánticas se transforman linealmente. Los vectores de probabilidad también se transforman linealmente. Se necesitaría más que "el principio de superposición" para explicar cualquier separación cuántica / clásica.
Niel de Beaudrap
Por cierto: aunque personalmente estoy de acuerdo en que la unitaridad (en oposición a, por ejemplo, la estocasticidad ) juega un papel importante en la computación cuántica, no está claro que uno pueda decir que es "el edificio básico" del sujeto. La computación cuántica basada en mediciones y la computación cuántica adiabática como ejemplos de modelos de control de calidad donde la unitaridad se coloca mucho en el asiento trasero, y donde uno requeriría un argumento no trivial para exprimir de alguna manera la unitaridad, excepto en la medida en que hemos inclinado la campo de juego describiendo el "control de calidad universal" en términos del modelo de circuito unitario.
Niel de Beaudrap
@NieldeBeaudrap, de hecho, la superposición se deriva de la linealidad. personalmente no cuento con la unitaridad tanto (pero ya veremos)
Nikos M.
1
BPP=P
-2

Quería responder a los comentarios de Niel de Beaudrap sobre la fuente de las aceleraciones cuánticas, pero no puedo comentar. No sé si puedo publicar una respuesta.

En mi opinión, todas las aceleraciones cuánticas se deben a enredos. El único algoritmo en el que podemos hacer algo más rápido que las computadoras clásicas sin usar estados entrelazados es Deutsch-Jozsa para calcular la paridad de dos bits. Si hablamos sobre aceleraciones asintóticas, es necesario enredar, y de hecho mucho. Si un algoritmo cuántico necesita una pequeña cantidad de entrelazamiento, puede simularse eficientemente de manera clásica. Puedo señalar el artículo http://arxiv.org/abs/quant-ph/0201143 , que analiza específicamente el algoritmo de factorización y la cantidad de enredos que requiere.

costelus
fuente
2
"En mi opinión, todas las aceleraciones cuánticas se deben a enredos". Su reclamo está realmente abierto a debate. El papel del enredo en los algoritmos cuánticos no se entiende completamente. Sabemos que el entrelazamiento no es un recurso suficiente para lograr una aceleración cuántica exponencial (existen circuitos cuánticos que se entrelazan al máximo, llamados circuitos de Clifford , que son clásicamente simulables), lo que demuestra que estos no son conceptos equivalentes.
Juan Bermejo Vega
2
Además, es posible que desee ver este documento , que muestra que un pequeño enredo es suficiente para hacer un cálculo cuántico universal (para medidas continuas de enredo).
Juan Bermejo Vega
Solo quería decir que los algoritmos cuánticos más interesantes usan enredos. Cuánto depende de la medida de enredo, y hay documentos que argumentan que demasiado enredo es inútil. Y sí, el enredo no es suficiente.
costelus
-4

Esta es casi la misma pregunta central que está impulsando algo así como cientos de millones, o posiblemente miles de millones de dólares en iniciativas de investigación informática QM tanto públicas como privadas en todo el mundo. La pregunta está siendo atacada al mismo tiempo, tanto experimental como teóricamente, y los avances en cada lado se trasladan al otro lado.

la pregunta intenta separar claramente los aspectos teóricos y pragmáticos / experimentales de esta pregunta, pero un experimentalista o ingeniero argumentaría que están estrechamente unidos, son inseparables, y que el progreso histórico hasta ahora en el desafío es evidencia / prueba de eso.

el siguiente punto ciertamente no va a ganar ningún concurso de popularidad (posiblemente debido en parte al sesgo conocido / observado de que los resultados negativos rara vez se informan científicamente), pero vale la pena señalar que existe una opinión minoritaria / contraria promovida por varios creíbles , incluso los investigadores de élite de que la computación QM puede o nunca materializarse físicamente debido a desafíos de implementación insuperables, e incluso hay alguna justificación / análisis teórico para esto (pero tal vez más de la física teórica que el TCS). (y tenga en cuenta que algunos pueden tener dudas pero no están dispuestos a dejar constancia cuestionando el "paradigma dominante"). Los argumentos principales se basan en el ruido inherente de QM, el principio de incertidumbre de Heisenberg y el desorden experimental fundamental de las configuraciones de QM, etc.

Ahora hay dos décadas bastante sólidas de investigación teórica y experimental, y la facción minoritaria argumentaría que los resultados hasta ahora no son alentadores, mediocres o incluso ahora están al borde de una respuesta negativa definitiva.

Dyakonov es uno de los defensores más abiertos de la visión negativa (¡que raya en extrema / mordaz!) pero, sin embargo, argumenta el caso apasionadamente basado en todos los ángulos:

se puede acusar a Dyakonov de casi polémico, pero sirve como un contrapunto casi simétrico para algunos defensores de la computación de QM que creen fervientemente en la posición opuesta (que no hay absolutamente ninguna duda de su viabilidad futura / eventual / inevitable). Kalai es otro teórico importante que defiende las limitaciones inherentes a la informática QM (basada en el ruido). Aquí hay un extenso debate entre él y Harrow sobre el tema.

También es natural establecer una analogía al menos floja con otro proyecto de física masiva / compleja que hasta ahora no ha logrado su objetivo final después de décadas de intentos y predicciones optimistas iniciales, la de los experimentos de fusión que generan energía .

vzn
fuente
44
Esto no responde la pregunta como se le preguntó.
DW
en resumen, la premisa implícita de que es una cuestión puramente teórica está empujando los límites de la aplicabilidad de la teoría frente a la realidad hasta el punto de ser defectuosa ... es decir, hay un problema de modelado en el corazón de ella ... hacer formalismos existentes (cruzando ambos ¡TCS y física!) ¿Capturar la realidad de manera real / precisa? Dyakonov podría responder que no ... y la facción minoritaria está proponiendo activamente nuevos formalismos ...
vzn
2
@vzn: con esto entendido que esto nunca podría dar una prueba formal de una forma u otra, ¿podría al menos explicar cómo el componente teórico de las "dos décadas bastante sólidas de investigación tanto teórica como experimental" apunta hacia resultados que son ¿"no es alentador, mediocre o incluso ahora está al borde de una respuesta negativa definitiva" en lo que respecta a la viabilidad de la computación cuántica?
Niel de Beaudrap
3
En vista del Axioma de Dyanokov sobre precisión y valores exactos, ¡no está claro si soy yo quien está profundizando en lo filosófico! Dyanokov parece ser un antirrealista incondicional, un escéptico de la mecánica cuántica, o ambos. Y no está claro cómo esos argumentos se refieren a: la precisión aborda el cálculo cuántico de error limitado, donde el teorema del umbral también se aplica al cálculo cuántico de precisión limitada. En resumen, no parece estar actualizado sobre el estado del arte de la computación cuántica, desde aproximadamente 1997 en adelante. No veo mucha necesidad de interacción en tiempo real, para abordar el escepticismo que no está actualizado.
Niel de Beaudrap
1
Partiendo de su resumen y una breve lectura de su artículo, el argumento de Dyakonov parece ser: dado que los supuestos utilizados en la prueba del fracaso del teorema de tolerancia a fallas no se satisfacen en el mundo real, no hay garantía de que la computación cuántica realmente funcione. Si utilizamos este criterio en general, casi ningún resultado teórico sería aplicable en la práctica.
Peter Shor