Me gustaría saber (en relación con esta otra pregunta ) si se conocen límites inferiores para el siguiente problema de prueba: a uno se le da acceso de consulta a una secuencia de números no negativos y ε ∈ ( 0 , 1 ) , con la promesa de que ∑ n k = 1 a k = 1 o ∑ n k = 1 a k ≤ 1 - ε .
¿Cuántas consultas (Búsquedas de) son suficientes y necesarias para un (adaptativa) algoritmo aleatorio para distinguir entre los dos casos, con una probabilidad de al menos ?
He encontrado una publicación anterior que proporciona un límite superior logarítmico (en ) para el problema relacionado de aproximación de la suma, y un límite inferior más o menos coincidente en ese problema para algoritmos deterministas; pero no pude encontrar un resultado para el problema específico que estoy considerando (en particular, algoritmos aleatorios).
Editar: Siguiendo la respuesta a continuación, supongo que debería haber sido más claro: en lo anterior (y particularmente en las asíntotas para el límite inferior), es la cantidad "principal" que se ve que va al infinito, mientras que ε es una (arbitrariamente pequeña ) constante.
fuente
Respuestas:
Aquí están los límites inferiores que puedo mostrar. Me conjetura de que para un fijo , el derecho límite inferior es Ω ( log n ) , pero, naturalmente, yo podría estar equivocado.ϵ Ω(logn)
Voy a usar una secuencia decreciente (solo por conveniencia). El mecanismo básico es romper la secuencia en bloques En el bloque i ésimo habrá n elementos i (es decir, ∑ i n i = n ).L i ni ∑ini=n
A continuación, queremos que el algoritmo tenga éxito con probabilidad , para algún parámetro δ > 0 .≥1−δ δ>0
Primer límite inferior: .Ω(1ϵlog1δ)
El ésimo bloque tiene n i = 2 i - 1 elementos, entonces L = lg n . Establecemos el valor de todos los elementos en el i ésimo bloque para que sea ( 1 + X i ) / ( 2 n i L ) , donde X i es una variable que es 0 o 1 . Claramente, la suma total de esta secuencia es α = L ∑ i = 1 1 + Xi ni=2i−1 L=lgn i (1+Xi)/(2niL) Xi 0 1
Imagínese elegir cadaXicon probabilidadβde ser1y0 de locontrario. Para estimarα, necesitamos una estimación confiable deβ. En particular, queremos poder distinguir la baseβ=1-4ϵy, digamos,β=1.
Ahora, imagine muestrear de estas variables aleatorias y deje que Z 1 , ... , Z m sean las variables muestreadas. Configuración Y = ∑ m i = 1 ( 1 - X i ) (tenga en cuenta que estamos tomando la suma de las variables del complemento ), tenemos μ = E [ Y ] = ( 1 - β ) m , y la desigualdad de Chernoff nos dice que si β = 1 - 4m Z1,…,Zm Y=∑mi=1(1−Xi) μ=E[Y]=(1−β)m , entonces μ = 4 ε m , y la probabilidad de fallo es
P [ Y ≤ 2 ε m ] = P [ Y ≤ ( 1 - 1 / 2 ) μ ] ≤ exp ( - μ ( 1 / 2 ) 2 / 2 ) = exp ( - ϵ m / 2 ) .
Para hacer esta cantidad más pequeña queβ=1−4ϵ μ=4ϵm
La observación clave es que la desigualdad de Chernoff es estrecha (hay que tener cuidado, porque no es correcta para todos los parámetros, pero es correcta en este caso), por lo que no se puede hacer mejor que eso (hasta constantes).
Segundo límite inferior: .Ω(logn/loglogn)
fuente
Límite inferior
Límite superior
Ahora, calcularemos la suma de valores en cada rango. El primer rango se manejará por separado del resto:
fuente