Muchos resultados importantes en la teoría de la complejidad computacional, y en particular la teoría de la complejidad "estructural", tienen la propiedad interesante de que pueden entenderse como fundamentalmente siguientes (como lo veo ...) de los resultados algorítmicos que proporcionan un algoritmo eficiente o protocolo de comunicación para algunos problema. Estos incluyen lo siguiente:
- IP = PSPACE se deriva de un algoritmo recursivo de espacio eficiente que simula protocolos interactivos, y un protocolo interactivo eficiente para evaluar fórmulas booleanas totalmente cuantificadas. De hecho, cualquier igualdad de clase de complejidad A = B puede verse como resultado de dos algoritmos eficientes (un algoritmo para problemas en A que es eficiente con respecto a B, y viceversa).
- Probar la integridad de NP de algún problema es solo encontrar un algoritmo eficiente para reducir un problema de NP completo.
- El ingrediente (¡posiblemente!) Crucial en el Teorema de la Jerarquía del Tiempo es una eficiente simulación universal de máquinas Turing.
- El teorema de PCP es que la amplificación eficiente de huecos es posible para problemas de satisfacción de restricciones.
- etcétera etcétera.
Mi pregunta (¡que posiblemente es vagamente irremediable!) Es la siguiente: ¿Hay resultados importantes en la teoría de la complejidad estructural (a diferencia de los "metaresultados" como la barrera de relativización) que no se sabe que tengan una interpretación natural en términos de eficiencia algoritmos (o protocolos de comunicación)?
cc.complexity-theory
structural-complexity
Ashley Montanaro
fuente
fuente
Respuestas:
Para muchos límites inferiores en la complejidad algebraica, no conozco una interpretación natural en términos de algoritmos eficientes. Por ejemplo:
La técnica de derivadas parciales de Nisan y Wigderson
La técnica de rango de Hesse de Mignon y Ressayre (que da el límite inferior más conocido actualmente en permanente versus determinante)
el grado límite de Strassen (y Baur-Strassen)
La técnica de componentes conectados de Ben-Or.
En todos los resultados anteriores, realmente parecen estar usando una propiedad de las funciones involucradas, donde esa propiedad en sí parece no estar relacionada con la existencia de ningún algoritmo particular (y mucho menos uno efectivo).
Para resultados no algebraicos, aquí hay un par de pensamientos:
El argumento de conteo estándar para el ordenando el límite inferior no parece tener una interpretación en términos de algoritmos eficientes. Sin embargo, existe una versión contradictoria de este límite inferior [1], en la que existe un algoritmo que, dado cualquier árbol de decisión que utiliza muy pocas comparaciones, construye eficientemente una lista que el árbol de decisión clasifica incorrectamente. Pero la versión de confrontación, aunque no es difícil, es significativamente más difícil que la prueba de conteo. (Tenga en cuenta que esto es bastante más fuerte de lo que se obtiene aplicando la técnica de límite inferior del adversario, por ejemplo, como en estas notas , ya que en [1] el adversario en sí mismo es eficiente ).nlogn
Creo que he cambiado de opinión sobre PARITY, no en (incluso la prueba original, y mucho menos la prueba Razborov-Smolensky, como lo señaló @RobinKothari). Aunque el Switching Lemma puede verse como un algoritmo aleatorio ( o determinista ) que le permite intercambiar dos filas de un circuito sin un gran aumento de tamaño, creo que esto realmente tiene un sabor diferente al de muchos resultados en complejidad, y específicamente el los que usted cita Por ejemplo, la prueba de Williams de que se basa de manera crucial en la existencia de un buen algoritmo para un problema en particular. Por el contrario, si se pudiera probar algo como el Lema de conmutación de manera no constructiva, sería igual de bueno para demostrar PARIDAD que no está en .AC0 ACC≠NEXP AC0
Debido a estos dos últimos ejemplos, especialmente la clasificación, donde la prueba estándar no es constructiva, me parece que la pregunta no solo se trata de interpretaciones naturales en términos de algoritmos eficientes, sino también de alguna manera sobre la constructividad / efectividad de las pruebas de varios resultados de complejidad (dependiendo de lo que el OP tenía en mente). Es decir, el límite inferior de clasificación estándar no es constructivo ni algorítmico, pero existe una prueba algorítmica constructiva del mismo resultado.
[1] Atallah, MJ y Kosaraju, SR Un límite inferior basado en el adversario para la clasificación . Informar. Proc. Letón. 13 (2): 55-57, 1981.
fuente