En MathOverflow, Timothy Gowers hizo una pregunta titulada " Demostrar que el rigor es importante ". La mayor parte de la discusión allí fue sobre casos que muestran la importancia de la prueba, de los cuales las personas en CSTheory probablemente no necesitan estar convencidos. En mi experiencia, las pruebas deben ser más rigurosas en informática teórica que en muchas partes de las matemáticas continuas, porque nuestra intuición a menudo resulta incorrecta para estructuras discretas, y porque el impulso para crear implementaciones fomenta argumentos más detallados. Un matemático puede estar contento con una prueba de existencia, pero un informático teórico generalmente tratará de encontrar una prueba constructiva. El Lema local de Lovász es un buen ejemplo [1].
Por lo tanto, me gustaría saber
¿Existen ejemplos específicos en informática teórica en los que una prueba rigurosa de una afirmación que se cree verdadera ha conducido a una nueva comprensión de la naturaleza del problema subyacente?
Un ejemplo reciente que no proviene directamente de los algoritmos y la teoría de la complejidad es la síntesis teórica de prueba , la derivación automática de algoritmos correctos y eficientes a partir de condiciones previas y posteriores [2].
- [1] Robin A. Moser y Gábor Tardos, una prueba constructiva del lema local general Lovász , JACM 57 , artículo 11, 2010. http://doi.acm.org/10.1145/1667053.1667060
- [2] Saurabh Srivastava, Sumit Gulwani y Jeffrey S. Foster, De la verificación del programa a la síntesis del programa , ACM SIGPLAN Notices 45 , 313–326, 2010. http://doi.acm.org/10.1145/1707801.1706337
Editar:El tipo de respuesta que tenía en mente es como la de Scott y Matus. Como sugirió Kaveh, esto es un triple de algo que la gente quería probar (pero que no fue necesariamente inesperado por "física", "agitación de la mano" o argumentos "intuitivos"), una prueba y las consecuencias del "problema subyacente" que seguido de esa prueba que no se anticipó (tal vez crear una prueba requirió nuevas ideas inesperadas, o naturalmente conduce a un algoritmo, o cambió la forma en que pensamos sobre el área). Las técnicas desarrolladas mientras se desarrollan las pruebas son los bloques de construcción de la informática teórica, por lo que para retener el valor de esta pregunta algo subjetiva, valdría la pena centrarse en la experiencia personal, como la proporcionada por Scott, o un argumento respaldado por referencias, como matus hizo. Por otra parte, yo ' Estoy tratando de evitar discusiones sobre si algo califica o no; desafortunadamente, la naturaleza de la pregunta puede ser intrínsecamente problemática.
Ya tenemos una pregunta sobre resultados "sorprendentes" en la complejidad: resultados sorprendentes en la complejidad (no en la lista de blogs de complejidad), por lo que idealmente estoy buscando respuestas que se centren en el valor de la prueba rigurosa , no necesariamente en el tamaño del avance.
fuente
Respuestas:
András, como probablemente sabes, ¡hay tantos ejemplos de lo que estás hablando que es casi imposible saber por dónde empezar! Sin embargo, creo que esta pregunta puede ser realmente buena, si las personas dan ejemplos de su propia experiencia donde la prueba de una conjetura ampliamente creída en su subárea condujo a nuevas ideas.
Cuando era estudiante universitario, el primer problema real de TCS que resolví fue este: ¿cuál es el algoritmo cuántico más rápido para evaluar un OR de √n ANDs de √n variables booleanas cada uno? Era dolorosamente obvio para mí y para todos los demás con los que hablé que lo mejor que podría hacer sería aplicar el algoritmo de Grover de forma recursiva, tanto al OR como a los AND. Esto dio un límite superior O (√n log (n)). (En realidad, puede eliminar el factor de registro, pero ignoremos eso por ahora).
Sin embargo, para mi enorme frustración, no pude probar ningún límite inferior mejor que el Ω trivial (n 1/4 ). ¡"Ir a físico" y "agitar la respuesta con la mano" nunca fueron más atractivos! :-RE
Pero luego, unos meses después, Andris Ambainis salió con su método de adversario cuántico , cuya aplicación principal al principio fue un límite inferior Ω (√n) para los OR-de-AND. Para probar este resultado, Andris imaginó alimentar un algoritmo cuántico con una superposición de diferentes entradas; Luego estudió cómo el enredo entre las entradas y el algoritmo aumentaba con cada consulta que realizaba el algoritmo. Mostró cómo este enfoque le permite la complejidad de la consulta cuántica de límite inferior incluso para problemas "desordenados" y no simétricos, utilizando solo propiedades combinatorias muy generales de la función f que el algoritmo cuántico estaba tratando de calcular.
Lejos de confirmar que la complejidad de la consulta cuántica de un problema molesto era lo que todos esperaban que fuera, estas técnicas resultaron representar uno de los mayores avances en la teoría de la computación cuántica desde los algoritmos de Shor y Grover. Desde entonces se han utilizado para probar docenas de otros límites inferiores cuánticos, e incluso se reutilizaron para obtener nuevos límites inferiores clásicos .
Por supuesto, este es "solo otro día en el maravilloso mundo de las matemáticas y el TCS". Incluso si todo el mundo "ya sabe" que X es cierto, probar X a menudo requiere inventar nuevas técnicas que luego se apliquen mucho más allá de X, y en particular a problemas para los cuales la respuesta correcta era mucho menos obvia a priori .
fuente
La repetición paralela es un buen ejemplo de mi área:
Luego, están las extensiones que se hicieron posibles: Anup Rao pudo adaptar el análisis para mostrar que cuando el sistema de prueba original es un {\ em juego de proyección}, es decir, la respuesta del primer probador determina como máximo una respuesta aceptable de el segundo probador, no hay dependencia del alfabeto en absoluto, y la constante en el exponente se puede mejorar. Esto es importante porque la mayoría de los resultados de dureza de aproximación se basan en juegos de proyección, y los juegos únicos son un caso especial de los juegos de proyección. También hay mejoras cuantitativas en juegos en expansores (por Ricky Rosen y Ran Raz), y más.
Luego, están las consecuencias de largo alcance. Solo algunos ejemplos: se utilizó un lema teórico de información del trabajo de Raz en muchos otros contextos (en criptografía, en equivalencia de muestreo y búsqueda, etc.). La técnica de "muestreo correlacionado" que utilizó Holenstein se aplicó en muchos otros trabajos (en la complejidad de la comunicación, en PCP, etc.).
fuente
Otro buen ejemplo de rigor (y nuevas técnicas) que se necesita para probar afirmaciones que se creían verdaderas: análisis suavizado. Dos casos en punto:
fuente
Creo que el siguiente ejemplo generó muchas investigaciones que tuvieron resultados del tipo que está buscando, al menos si sigo el espíritu de su ejemplo LLL.
Robert E. Schapire. La fuerza de pobre aprendizaje. Machine Learning, 5 (2): 197-227, 1990.
De todos modos, las cosas se volvieron muy interesantes después del papel de Schapire. Su solución produjo una mayoría de mayoría sobre las hipótesis en la clase original. Entonces vino:
Yoav Freund. Impulsar un algoritmo de aprendizaje débil por mayoría. Information and Computation, 121 (2): 256-285, 1995.
Este documento tenía una 'reprensión' del resultado de Schapire, pero ahora la hipótesis construida usaba solo una mayoría. En este sentido, los dos produjeron otra reprensión, llamada AdaBoost:
Yoav Freund y Robert E. Schapire. Una generalización teórica de la decisión del aprendizaje en línea y una aplicación para impulsar. Journal of Computer and System Sciences, 55 (1): 119-139, 1997.
La pregunta de aprendizaje débil / fuerte comenzó como una preocupación principalmente teórica, pero esta secuencia de 'reproches' resultó en un algoritmo hermoso, uno de los resultados más influyentes en el aprendizaje automático. Podría hacer todo tipo de tangentes aquí, pero me contendré. En el contexto de TCS, estos resultados respiran mucha vida en el contexto de (1) algoritmos de peso multiplicativo y (2) resultados de conjunto duro. Acerca de (1), me gustaría aclarar que AdaBoost puede ser visto como una instancia de los pesos multiplicativos / trabajo de winnow de Warmuth / Littlestone (Freund era un estudiante de Warmuth), pero hay muchas nuevas ideas sobre el impulso resultados. Sobre (2), yo '
Para mayor precisión histórica, también debería decir que las fechas de mis citas quizás no sean lo que algunas personas esperarían, ya que para algunas de ellas hubo versiones anteriores de la conferencia.
De vuelta a la naturaleza de su pregunta. El valor clave de 'rigor' aquí fue proporcionar la clase de hipótesis que uno aprende (mayorías ponderadas sobre la clase de hipótesis original) y algoritmos eficientes para encontrarlos.
fuente
Este ejemplo está en la línea de las respuestas de Dana y Scott.
fuente
El artículo "Pruebas naturales" de Rasborov y Rudich ofrece una prueba rigurosa de (una formalización de) la declaración dolorosamente obvia "Es realmente difícil demostrar que P ≠ NP".
fuente
La idea de que algunos problemas algorítmicos requieren un número exponencial de pasos, o una búsqueda exhaustiva de todas las posibilidades, surgió desde los años 50 y tal vez antes. (Por supuesto, la ingenua idea competitiva de que las computadoras pueden hacer todo también era común). El gran avance de Cook y Levin fue poner esta idea sobre bases rigurosas. Esto, por supuesto, cambió todo.
Actualización: Acabo de darme cuenta de que mi respuesta, como la buena respuesta de Turkistany, aborda el título de la pregunta "rigor que conduce a la comprensión", pero tal vez no la redacción específica que trataba sobre "prueba rigurosa de un teorema".
fuente
Alan Turing formalizó la noción de algoritmo (computabilidad efectiva) utilizando máquinas Turing. Utilizó este nuevo formalismo para demostrar que el problema de detención es indecidible (es decir, ningún problema puede resolver el problema de detención). Esto condujo a un largo programa de investigación que demostró la imposibilidad del décimo problema de Hilbert. Matiyasevich en 1970 demostró que no existe un algoritmo que pueda decidir si una ecuación entera de diofantina tiene una solución entera.
fuente