A menudo escuchamos sobre investigaciones clásicas y publicaciones en el campo de la complejidad computacional (Turing, Cook, Karp, Hartmanis, Razborov, etc.). Me preguntaba si hay documentos publicados recientemente considerados fundamentales y una lectura obligada. Por reciente quiero decir en los últimos 5/10 años.
cc.complexity-theory
big-list
Yamar69
fuente
fuente
En una preimpresión reciente, Harvey y Van Der Hoeven muestran cómo calcular la multiplicación de enteros en el tiempoO(nlogn) en una máquina Turing de varias cintas, culminando unos 60 años de investigación (Karatsuba, Toom – Cook, Schönhage – Strassen, Fürer , Harvey – Van Der Hoeven – Lecerf). El documento aún no ha sido revisado por pares, pero el trabajo previo de los autores sobre este problema lo hace plausible, y los expertos parecen ser optimistas.
fuente
La importancia está en los ojos del espectador. Sin embargo, diría que la conjetura de dicotomía CSP Feder-Vardi, demostrada independientemente por A. Bulatov y D. Zhuk , es un resultado fundamental.
fuente
Límites inferiores del circuito ACC no uniforme por Ryan Williams:
https://people.csail.mit.edu/rrw/acc-lbs.pdf
y verificación clásica de computaciones cuánticas por Urmila Mahadev:
http://ieee-focs.org/FOCS-2018-Papers/pdfs/59f259.pdf
parecen buenos candidatos
fuente
Este nuevo artículo de Hao Huang [1] (aún no revisado por pares, que yo sepa) probablemente califica ... demuestra la conjetura de sensibilidad de Nisan y Szegedy, que ha estado abierto durante ~ 30 años.
[1] Subgrafos inducidos de hipercubos y una prueba de la Conjetura de la sensibilidad, Hao Huang. Manuscrito, 2019. https://arxiv.org/abs/1907.00847
fuente
El trabajo de 2018 de Subhash Khot, Dor Minzer y Muli Safra "Los conjuntos pseudoaleatorios en Grassmann Graph tienen una expansión casi perfecta" nos ha conseguido "a mitad de camino" a la Conjetura de los juegos únicos y es metodológicamente bastante interesante según personas más conocedoras que yo. Citando a Boaz Barak ,
El documento ha causado que algunos investigadores (incluido Barak) cambien públicamente su opinión sobre la verdad de la UGC (de falsa a verdadera).
fuente
"Sobre la posibilidad de algoritmos SAT más rápidos" por Pătraşcu & Williams (SODA 2010). Da relaciones estrechas entre la complejidad de resolver CNF-SAT y la complejidad de algunos problemas polinomiales (conjunto dominante de k, suma d, etc.).
Los resultados son dobles: podemos mejorar la complejidad de resolver algunos problemas polinómicos y, por lo tanto, ETH es falso y obtenemos un mejor algoritmo para CNF-SAT. O ETH es cierto y, por lo tanto, obtenemos límites más bajos en varios problemas polinómicos.
El documento es sorprendentemente fácil de leer y entender. Para mí, es el comienzo real de la complejidad de grano fino.
fuente
Es un año más allá del límite de 10 años, pero "Delegar la computación: pruebas interactivas para muggles" de Goldwasser, Kalai y Rothblum ha sido un artículo muy influyente. El resultado principal es que hay una prueba interactiva para cualquier computación uniforme en el espacio logarítmico donde el probador se ejecuta en tiempo poly (n) y el verificador en tiempo n * polylog (n) con bits de comunicación polylog (n).
El documento ha iniciado la investigación sobre pruebas interactivas y el cálculo verificable de problemas en P ha sido increíblemente influyente en la criptografía, donde el trabajo que siguió ha hecho que las pruebas interactivas del mundo real sean casi prácticas.
fuente
Para el impacto, y alcanzar el papel de referencia de Indyk, y Backurs que dan límites para editar el cálculo de distancia. Este documento muestra los límites de la informática, mediante enlaces, k-SAT y SETH. Para limitar el cálculo de la distancia levenshtein, entre cadenas, el papel muestra límites estrechos para calcular la distancia de edición, mejor que violar SETH (SETH puede ser falso en primer lugar, o incluso tener límites inferiores más estrictos ). La aplicabilidad de SETH a posibles problemas en P, para obtener límites o limitar la aplicación de algoritmos (¡posiblemente computación!) Es nueva.
O este artículo de P. Goldberg y C. Papadimitrou, sobre una complejidad uniforme para funciones totales Hacia una teoría de complejidad unificada de funciones totales .
fuente
No estoy seguro de si esto califica, ya que tiene más de 10 años y no es realmente un resultado de complejidad computacional en sí mismo, pero creo que vale la pena señalar el par de {Teorema de estructura gráfica, Teorema de gráfico menor}. Se completó en 2004 y establece una equivalencia entre "Complejidad topológica limitada" y "No contiene un conjunto finito de menores". Cada teorema establece una dirección de la equivalencia.
Esto ha tenido principalmente un impacto en el ámbito de la teoría de la complejidad parametrizada, donde una de estas medidas a menudo está limitada, lo que permite algoritmos eficientes que aprovechan la otra. Entonces, diría que estos resultados han tenido un impacto sustancial en la complejidad computacional, incluso si no provienen directamente de ese campo.
fuente