¿Cuáles son algunos ejemplos importantes de desrandomización exitosa o al menos progreso en mostrar evidencia concreta hacia el objetivo (no la conexión de aleatoriedad de dureza)?
El único ejemplo que me viene a la mente es la prueba de primitiva de tiempo polinomial determinista de AKS (incluso para esto había una metodología que suponía GRH). Entonces, ¿qué evidencia específica a través del ejemplo tenemos para la aleatorización (de nuevo, no la dureza o la conexión del oráculo)?
Guarde ejemplos solo donde la mejora de la complejidad del tiempo se mostró de polietileno aleatorizado a poli determinista o algo que está muy cerca de problemas específicos.
Lo siguiente es más un comentario y no sé mucho, ayudará a esta consulta.
Chazelle tiene una declaración muy intrigante en http://www.cs.princeton.edu/~chazelle/linernotes.html bajo 'El método de discrepancia: aleatoriedad y complejidad (Cambridge University Press, 2000)'.
'Para mí ha sido una fuente interminable de fascinación que una comprensión más profunda de la computación determinista requiera el dominio de la aleatorización. Escribí este libro para ilustrar esta poderosa conexión. Desde los árboles de expansión mínima hasta la programación lineal y las triangulaciones de Delaunay, los algoritmos más eficientes son a menudo las aleatorizaciones de las soluciones probabilísticas. El método de discrepancia pone de relieve una de las preguntas más fructíferas en toda la informática: si cree que necesita bits aleatorios, díganos por qué.
Respuestas:
.SL = L
significa logspace aleatorizado y R L = L es una versión más pequeña del problema R P = P . Una piedra importante paso a paso fue la prueba de Reingold en '04 ( "no dirigido ST Conectividad en LOGSPACE") que S L = L , donde S significa "simétrica" y S L es una clase intermedia entre R L y L .R L R L = L R P= P SL = L S SL R L L
La idea es pensar en una máquina Turing de espacio de registro aleatorio como un gráfico dirigido de tamaño polinómico, donde los nodos son estados de la máquina, y un algoritmo RL realiza un recorrido aleatorio que tiene buenas propiedades. SL corresponde a gráficos no dirigidos de esta forma. La prueba de Reingold se basó en el trabajo en gráficos expansores, en particular el "producto en zigzag" de Reingold, Vadhan y Wigderson, para realizar cualquier recorrido aleatorio en un gráfico no dirigido con buenas propiedades y convertirlo en un recorrido psuedorandom que conserve esas propiedades.
editar esta pregunta se publicó antes de que la pregunta se cambiara explícitamente para enfocarse exclusivamente en P vs BPP ... Lo dejo porque parece ser de interés.
fuente
Básicamente, solo hay un problema interesante en BPP que no se conoce en P: Prueba de identidad polinómica, dado que un circuito algebraico es el polinomio que genera idénticamente cero. Impagliazzo y Kabanets muestran que PIT en P implicaría algunos límites inferiores del circuito. Entonces, los límites inferiores del circuito son la única razón (pero bastante buena) por la que creemos que P = BPP.
fuente
Además de la prueba de identidad polinómica, otro problema muy importante que se sabe que está en BPP pero no en P es aproximar el permanente de una matriz no negativa o incluso el número de coincidencias perfectas en un gráfico. Hay un algoritmo aleatorio de tiempo múltiple para aproximar estos números dentro de un factor (1 + eps), mientras que los mejores algoritmos deterministas solo alcanzan aproximaciones de factor ~ 2 ^ n.
Si bien el ejemplo principal es permanente, existen muchos problemas de conteo aproximados para los cuales existe una gran brecha entre los algoritmos aleatorios (generalmente basados en métodos 'MCMC') y los algoritmos deterministas.
Otro problema en una veta similar es aproximar el volumen de un cuerpo convexo dado explícitamente (digamos un poliedro descrito por una colección de desigualdades lineales).
fuente