Probar o refutar: BPP (0.90,0.95) = BPP

8

Realmente me gustaría su ayuda para probar o refutar la siguiente afirmación: . En la teoría de la complejidad computacional, BPP, que significa tiempo polinómico probabilístico de error limitado, es la clase de problemas de decisión que puede resolver una máquina de Turing probabilística en tiempo polinómico, con una probabilidad de error de como máximo para todas las instancias . .BPP(0.90,0.95)=BPP13BPP=BPP(13,23)

No es inmediato que ninguno de los conjuntos sea un subconjunto del otro, ya que si la probabilidad de un error es menor que , no tiene que ser menor que y si es mayor que no tiene que ser mayor que .0.913230.905

Estoy tratando de usar la desigualdad de Chernoff para probar la afirmación, no estoy seguro exactamente cómo. Realmente me gustaría tu ayuda. ¿Hay alguna afirmación general sobre estas relaciones que pueda usar?

Numerador
fuente
No estoy seguro de lo que significa la notación BPP (x, y). ¿Es que una cadena que no está en el idioma es aceptada con una probabilidad no mayor que x y una cadena en el idioma es aceptada con una probabilidad mayor que y?
Matt Lewis
Exactamente, tienes razón.
Numerador
44
Sugerencia: si ejecuta ensayos en una cadena que no está en su idioma, ¿cuál es la probabilidad de que más de, por ejemplo, acepten la cadena? Si ejecuta pruebas en una cadena que está en el idioma, ¿cuál es la probabilidad de que menos de rechacen la cadena? ¿Qué sucede con sus probabilidades de aceptación / rechazo si ejecuta pruebas y dice 'aceptar cualquier cadena que sea aceptada por más de carreras', como ? n.9 n+cnn.95 ncnn.925 nn
Steven Stadnicki
44
La sugerencia de Steven Stadnicki es para mostrar que . Para la otra dirección, muestre que para cada . De la misma manera, puede mostrar que para cualquier constante . BPP(0.9,0.95)BPP(1/3,2/3)BPP(1/3,2/3)BPP(ϵ,1ϵ)ϵBPP=BPP(α,β)0<α<β<1
Yuval Filmus

Respuestas:

12

Para ampliar mi comentario en una respuesta: la forma multiplicativa del límite de Chernoff dice que si la expectativa para la suma de variables binarias aleatorias independientes es , entonces la probabilidad de desviarse ' demasiado lejos 'de esa expectativa va como: .X=i=0nXiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ

Ahora, imagine un procedimiento en el que, dada una cadena para probar, ejecutamos pruebas de nuestro algoritmo (para que se elija alguna más adelante) y acepte si al menos de esas pruebas aceptan . Podemos usar el límite de Chernoff para encontrar la probabilidad de falla en términos de siguiente manera:σnBPP(0.90,0.95)n0.925nσn

Supongamos que denota el resultado de la ésima prueba y, por lo tanto, el número de pruebas que tienen éxito. Podemos suponer conservadoramente que nuestra probabilidad de falsos positivos es de ; Esto significa que si hacemos pruebas independientes en una cadena , el número esperado de éxitos es . (Tenga en cuenta que una probabilidad de falso positivo menor que conducirá a un valor esperado aún más bajo y, por lo tanto, a límites aún más estrictos en las estimaciones por venir.) Ahora, veamos la probabilidad de que tengamos más de falsos positivos (es decir , que ). Nosotros tomamosXiiX=Xi.9nσLμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)1=136 ; luego y así tenemos .(eδ(1+δ)(1+δ)).99961<29993000Pr(X>0.925n)<(29993000)0.9n

A partir de aquí, debería quedar claro que al tomar suficientemente grande podemos reducir esta probabilidad a . Por lo tanto, para esta suficientemente grande , si aceptamos la cadena solo si el número de pruebas exitosas en es mayor que , entonces nuestra probabilidad de aceptar una cadena cae por debajo de . Tenga en cuenta que esta es constante , no depende del tamaño de nuestro problema; ya que estamos ejecutando nuestro polinomialn<13nσσ.925nσL13nBPP(0.9,0.95)algoritmo un número constante de veces, el tiempo total de ejecución de nuestro nuevo procedimiento sigue siendo polinomial. Un análisis similar en la otra dirección mostrará que la probabilidad de un 'falso negativo' (que para una cadena que está en nuestro idioma) estará acotada por para alguna , y así nuevamente podemos tomar suficientemente grande como para limitar la probabilidad de un falso negativo por (o, en otras palabras, para garantizar al menos probabilidad de aceptar en una cadena ) Esto muestra queX<.925ncncn1323σLBPP(.9,.95)BPP(13,23)BPP, y el comentario de Yuval muestra cómo probar la equivalencia inversa a través de un procedimiento similar.

Canonicamente, esto se conoce como amplificación de probabilidad y es un método inmensamente útil para tratar con clases probabilísticas. Las constantes específicas son menos importantes, obviamente, entonces el hecho de que el límite de Chernoff nos permite vincular nuestras probabilidades de 'resultado falso' por alguna función exponencial del número de ensayos, por lo que pueden hacerse arbitrariamente pequeños con solo un número modesto de ensayos.

Steven Stadnicki
fuente
2
En realidad no necesitas que Chernoff esté atado aquí, Chebyshev es suficiente.
Yuval Filmus
@YuvalFilmus Oh, ciertamente; desde que OP mencionó específicamente a Chernoff, pensé que iría por esa ruta, y aparte de la forma incómoda de la constante, en mi humilde opinión es un poco más fácil, ya que no es necesario desenterrar los resultados (directos como pueden ser) en la varianza de una distribución binomial.
Steven Stadnicki