Siempre me intriga la falta de evidencia numérica de las matemáticas experimentales a favor o en contra de la pregunta P vs NP. Si bien la hipótesis de Riemann tiene alguna evidencia de respaldo de la verificación numérica, no conozco evidencia similar para la pregunta P vs NP.
Además, no estoy al tanto de ninguna consecuencia física directa del mundo de la existencia de problemas indecidibles (o la existencia de funciones inconfundibles). El plegamiento de proteínas es un problema NP-completo, pero parece estar teniendo lugar de manera muy eficiente en los sistemas biológicos. Scott Aaronson propuso utilizar el supuesto de dureza NP como principio de la física. Él afirma la suposición de manera informal como "los problemas NP-completos son intratables en el mundo físico ".
Suponiendo el supuesto de dureza NP, ¿por qué es difícil diseñar un experimento científico que decida si nuestro universo respeta el supuesto de dureza NP o no?
Además, ¿hay alguna evidencia numérica conocida de las matemáticas experimentales a favor o en contra de ?
EDITAR: Aquí hay una buena presentación de Scott Aaronson titulada Intractabilidad computacional como una ley de la física
fuente
Respuestas:
No creo que el hecho de que sea una declaración asintótica es un "factor decisivo" automático. Uno puede hacer conjeturas concretas que sean consistentes con nuestro conocimiento pero más fuertes que P vs NP como "Se necesitan al menosPAG≠ NPAG pasos para encontrar una asignación satisfactoria para una fórmula aleatoria n variable 10SAT" (con "aleatorio", por ejemplo, el modelo plantado deAchlioptas Coja-Oghlan, esto es solo un ejemplo: no sé cuáles son los números concretos razonables de antemano).2n / 10
Tal conjetura puede resultar en una predicción refutable de que cualquier sistema natural que intente resolver esto fallará (por ejemplo, quedar atascado en un mínimo local), algo que puede verificar con experimentos. De hecho, no soy un experto en esto, pero que yo sepa, como mencionó Joe Fitzsimons, tales predicciones se habían confirmado con la informática adiabática. (Scott Aaronson también tuvo algunos entretenidos experimentos con pompas de jabón).
Por supuesto, también puede ver alguna "evidencia empírica" para en el hecho de que las personas han estado tratando de resolver problemas de optimización, cifrar criptoanálisis, etc. y no han tenido éxito hasta ahora ...PAG≠ NPAG
fuente
El mundo real es un objeto de tamaño constante, por lo que no hay forma de descartar un procedimiento del mundo real en tiempo polinómico para resolver problemas NP-completos que tienen una enorme constante oculta en la notación O grande.
De todos modos, además de este punto, la suposición es una declaración de la forma "no existe un procedimiento del mundo real que haga ..." ¿Cómo se diseña un experimento para refutar dicha declaración? Si la suposición era algo así como "Si hacemos X en el mundo real, Y sucede", entonces esto puede refutarse realizando X. La afirmación de que queremos afirma la inexistencia de algo, por lo que no puedo ver un experimento decidiéndolo Podría mostrarse como una consecuencia física de las leyes de la física, pero esto es aún más difícil que P vs NP, porque una máquina de Turing sigue las leyes de la física. Dado que no hemos tenido éxito incluso al demostrar que los TM no pueden resolver problemas de NP completo en tiempo polinómico, parece completamente inútil demostrar que ningún proceso físico puede resolver problemas de NP completo en tiempo polinómico.
fuente
De hecho, la versión física de P no es igual a NP, es decir, que ningún sistema físico natural puede resolver el problema completo de NP es muy interesante. Hay algunas preocupaciones
1) El programa parece prácticamente "ortogonal" a la física experimental y teórica. Por lo tanto, realmente no proporciona (hasta ahora) ideas útiles en física.
Hay algunos buenos argumentos sobre cómo se puede deducir de esta versión física de la conjetura algunas ideas en física, pero estos argumentos son bastante "suaves" y tienen lagunas. (Y es probable que tales argumentos sean problemáticos, ya que se basan en conjeturas matemáticas muy difíciles, como NP que no es igual a P y que NP no se incluye en BQP que no entendemos).
(Un comentario similar se aplica a la "tesis de la Iglesia-turing").
2) Aunque el NP físico no es igual a P es una conjetura más amplia que el NP matemático no es igual a P, también podemos considerarlo más restringido ya que los algoritmos que ocurren en la naturaleza (e incluso los algoritmos creados por hombres) parecen ser muy clase restringida de todos los algoritmos teóricamente posibles. Será muy interesante entender formalmente tales restricciones, pero en cualquier caso cualquier "prueba" experimental como se sugiere en la pregunta se aplicará solo a estas clases restringidas.
3) En el modelado científico, la complejidad computacional representa una especie de materia de segundo orden donde primero nos gustaría modelar un fenómeno natural y ver qué se puede predecir en función del modelo (dejando a un lado la teoría de la complejidad computacional). Dar demasiado peso a los problemas de complejidad computacional en la etapa de modelado no parece ser fructífero. En muchos casos, el modelo es computablemente insoluble para empezar, pero aún puede ser factible para problemas que ocurren naturalmente o útil para comprender los fenómenos.
4) Estoy de acuerdo con Boaz en que el problema asintótico no es necesariamente un "factor decisivo". Aún así, es un asunto bastante serio cuando se trata de la relevancia de los asuntos de complejidad computacional para el modelado de la vida real.
fuente
Si me permite generalizar un poco ... Extendamos la pregunta y solicitemos otros supuestos de dureza teórica de la complejidad y sus consecuencias para los experimentos científicos. (Me centraré en la física.) Recientemente hubo un programa bastante exitoso para tratar de comprender el conjunto de correlaciones permitidas entre dos dispositivos de medición que, separados espacialmente, realizan una medición en un sistema físico (posiblemente no correlacionado localmente) ( 1) Bajo esta y otras configuraciones similares, uno puede usar los supuestos sobre la dureza de la complejidad de la comunicación para derivar límites estrechos que reproducen las correlaciones permitidas para la mecánica cuántica.
Para darle un sabor, permítame describir un resultado anterior a este respecto. Una caja Popescu-Rohrlich (o caja PR) es un dispositivo imaginario que reproduce correlaciones entre los dispositivos de medición que son consistentes con el principio de que ninguna información puede viajar más rápido que la luz (llamado el principio de no señalización ).
Podemos ver esto como una instancia de la complejidad de la comunicación que tiene cierta influencia. La idea de que dos observadores deben comunicarse implícitamente supone una restricción que un físico no llamaría señalización. Dando la vuelta a esta idea, ¿qué tipos de correlaciones son posibles entre dos dispositivos de medición limitados por ninguna señalización? Esto es lo que estudian Popescu y Rohrlich. Mostraron que este conjunto de correlaciones permitidas es estrictamente mayor que las permitidas por la mecánica cuántica, que a su vez son estrictamente más grandes que las permitidas por la física clásica.
La pregunta se presenta entonces, ¿qué hace que el conjunto de correlaciones cuánticas sea el conjunto "correcto" de correlaciones, y no las permitidas por ninguna señalización?
Para abordar esta pregunta, hagamos la suposición básica de que existen funciones para las cuales la complejidad de la comunicación no es trivial. Aquí no trivial solo significa que para calcular conjuntamente una función booleana f (x, y), se necesita más que un solo bit (2). Sorprendentemente, incluso este supuesto teórico de complejidad muy débil es suficiente para restringir el espacio de correlaciones permitidas.
Tenga en cuenta que un resultado más débil ya se probó en el Ph.D. tesis de Wim van Dam. Lo que Brassard et al. probar es que tener acceso a cuadros de relaciones públicas, incluso los que están defectuosos y solo producen la correlación correcta algunas veces, permite trivializar completamente la complejidad de la comunicación. En este mundo, cada función booleana de dos variables se puede calcular conjuntamente transmitiendo solo un bit. Esto parece bastante absurdo, así que echemos un vistazo a la inversa. Podemos tomar la no trivialidad de la complejidad de la comunicación como un axioma, y esto nos permite deducir el hecho de que no observamos ciertas correlaciones más fuertes que las cuánticas en nuestros experimentos.
Este programa que utiliza la complejidad de la comunicación ha sido sorprendentemente exitoso, quizás mucho más que el correspondiente para la complejidad computacional. Los documentos anteriores son realmente solo la punta del iceberg. Un buen lugar para comenzar a leer más es esta revisión:
o una búsqueda avanzada de literatura de los otros dos documentos que cité.
Esto también plantea la interesante pregunta de por qué la configuración de la comunicación parece mucho más susceptible de análisis que la configuración de la computación. Quizás ese podría ser el tema de otra pregunta publicada sobre teoría.
(1) Tomemos, por ejemplo, los experimentos que miden algo conocido como la desigualdad CHSH (un tipo de desigualdad de Bell ), donde el sistema físico consta de dos fotones enredados, y las mediciones son mediciones de polarización en los fotones individuales en dos ubicaciones espacialmente distantes.
(2) Este bit único es necesario siempre que f (x, y) realmente dependa de x e y, ya que enviar bits cero no violaría ninguna señalización.
fuente
Ahora, encontrar un circuito mínimo para SAT hasta la longitud 10 es actualmente muy difícil. Sin embargo, algunas de las ideas en la teoría de la complejidad geométrica le permiten obtener resultados similares con una búsqueda computacional más eficiente (creo que solo exponencial en lugar de doblemente exponencial). Una de las conjeturas de Mulmuley es que, de hecho, esta búsqueda se puede hacer en tiempo polinómico, pero estamos muy lejos de probar algo parecido a eso.
fuente
Las definiciones de "tiempo polinomial" y "tiempo exponencial" describen el comportamiento limitante del tiempo de ejecución a medida que el tamaño de entrada crece hasta el infinito. Por otro lado, cualquier experimento físico necesariamente considera solo entradas de tamaño acotado. Por lo tanto, no hay absolutamente ninguna manera de determinar experimentalmente si un algoritmo dado se ejecuta en tiempo polinómico, tiempo exponencial u otra cosa.
O en otras palabras: lo que dijo Robin.
fuente
Permítanme comenzar diciendo que estoy completamente de acuerdo con Robin. En cuanto al plegamiento de proteínas, hay un pequeño problema. Al igual que con todos estos sistemas, el plegamiento de proteínas puede atascarse en los mínimos locales, que es algo que parece estar descuidando. El problema más general es simplemente encontrar el estado fundamental de algunos hamiltonianos. En realidad, incluso si consideramos solo giros (es decir, qubits), este problema está completo para QMA.
Sin embargo, los hamiltonianos naturales son un poco más suaves que algunos de los artificiales utilizados para probar la integridad de QMA (que tienden a no reflejar las interacciones naturales), pero incluso cuando nos limitamos a las interacciones naturales de dos cuerpos en sistemas simples, el resultado sigue siendo un NP -completo problema. De hecho, esto forma la base de un enfoque que intenta abordar los problemas de NP utilizando la computación cuántica adiabática. Desafortunadamente, parece que este enfoque no funcionará para problemas de NP completo, debido a un problema bastante técnico relacionado con la estructura del nivel de energía. Sin embargo, esto lleva a una consecuencia interesante de los problemas existentes dentro de NP que no pueden resolverse eficientemente por naturaleza (con lo que me refiero a los procesos físicos). Significa que existen sistemas que no pueden enfriarse eficientemente. Es decir,
fuente
El estudio de situaciones del mundo real desde una perspectiva computacional es bastante difícil debido al "salto" continuo y discreto. Si bien todos los eventos en el mundo real (supuestamente) se ejecutan en tiempo continuo, los modelos que usamos generalmente se implementan en tiempo discreto. Por lo tanto, es muy difícil definir qué tan pequeño o grande debe ser un paso, cuál debe ser el tamaño del problema, etc.
He escrito un resumen sobre un artículo de Aaronson sobre el tema, sin embargo, no está en inglés. Ver el artículo original .
Personalmente, he oído hablar de otro ejemplo de un problema del mundo real modelado en computación. El documento trata sobre modelos de sistemas de control basados en el agrupamiento de aves. Resulta que aunque toma poco tiempo en la vida real para las aves, es intratable ("una torre de 2s") cuando se analiza como un problema computacional. Ver el documento de Bernard Chazelle para más detalles.
[Editar: Aclaró la parte sobre el papel Chazelle. Gracias por proporcionar información precisa.]
fuente
Todavía voto por el problema de los n cuerpos como un ejemplo de intratabilidad NP. Los caballeros que se refieren a soluciones numéricas olvidan que la solución numérica es un modelo recursivo, y no una solución en principio de la misma manera que lo es una solución analítica. La solución analítica de Qui Dong Wang es intratable. Las proteínas que pueden plegarse y los planetas que pueden orbitar en sistemas de más de dos cuerpos son sistemas físicos, no soluciones algorítmicas del tipo que aborda el problema P-NP.
También debo apreciar las dificultades de Chazisop con soluciones en tiempo continuo. Si el tiempo o el espacio son continuos, los espacios de estado potenciales se vuelven incontables (aleph one).
fuente
fuente