Límite inferior al estimar

11

Me gustaría saber (en relación con esta otra pregunta ) si se conocen límites inferiores para el siguiente problema de prueba: a uno se le da acceso de consulta a una secuencia de números no negativos y ε ( 0 , 1 ) , con la promesa de que n k = 1 a k = 1 o n k = 1 a k1 - ε .ana1ε(0,1)k=1nak=1k=1nak1ε

¿Cuántas consultas (Búsquedas de) son suficientes y necesarias para un (adaptativa) algoritmo aleatorio para distinguir entre los dos casos, con una probabilidad de al menos ?2/3

He encontrado una publicación anterior que proporciona un límite superior logarítmico (en ) para el problema relacionado de aproximación de la suma, y ​​un límite inferior más o menos coincidente en ese problema para algoritmos deterministas; pero no pude encontrar un resultado para el problema específico que estoy considerando (en particular, algoritmos aleatorios).n


Editar: Siguiendo la respuesta a continuación, supongo que debería haber sido más claro: en lo anterior (y particularmente en las asíntotas para el límite inferior), es la cantidad "principal" que se ve que va al infinito, mientras que ε es una (arbitrariamente pequeña ) constante.nε

Clemente C.
fuente
Supongo que te refieres a . k=1nak1ε
RB
De hecho, lo arregló.
Clemente C.
Bueno, sin el orden sería necesaria una dependencia de , creo (con o sin muestreo). Una instancia de "malo" (par de secuencias) sería por ejemplo una secuencia con todo una k 's que es igual a 1 - εnak , excepto uno (arbitrario, aleatorio)jtal queunjsea ​​igual aε(en la primera secuencia) y0(en la segunda). Sin consultasΩ(n), las dos secuencias no se pueden distinguir ...1εn1jajε0Ω(n)
Clement C.
Supongo que el modelo de consulta le permite elegir la para la que consulta una k , ¿es así? kak
kodlu
Sí (puede elegir el punto que desea "divulgar").
Clemente C.

Respuestas:

5

Aquí están los límites inferiores que puedo mostrar. Me conjetura de que para un fijo , el derecho límite inferior es Ω ( log n ) , pero, naturalmente, yo podría estar equivocado.ϵΩ(logn)

Voy a usar una secuencia decreciente (solo por conveniencia). El mecanismo básico es romper la secuencia en bloques En el bloque i ésimo habrá n elementos i (es decir, i n i = n ).Liniini=n

A continuación, queremos que el algoritmo tenga éxito con probabilidad , para algún parámetro δ > 0 .1δδ>0

Primer límite inferior: .Ω(1ϵlog1δ)

El ésimo bloque tiene n i = 2 i - 1 elementos, entonces L = lg n . Establecemos el valor de todos los elementos en el i ésimo bloque para que sea ( 1 + X i ) / ( 2 n i L ) , donde X i es una variable que es 0 o 1 . Claramente, la suma total de esta secuencia es α = L i = 1 1 + Xini=2i1L=lgni(1+Xi)/(2niL)Xi01 Imagínese elegir cadaXicon probabilidadβde ser1y0 de locontrario. Para estimarα, necesitamos una estimación confiable deβ. En particular, queremos poder distinguir la baseβ=1-4ϵy, digamos,β=1.

α=i=1L1+Xi2niL=12+12L(i=1LXi).
Xiβ10αββ=14ϵβ=1

Ahora, imagine muestrear de estas variables aleatorias y deje que Z 1 , ... , Z m sean las variables muestreadas. Configuración Y = m i = 1 ( 1 - X i ) (tenga en cuenta que estamos tomando la suma de las variables del complemento ), tenemos μ = E [ Y ] = ( 1 - β ) m , y la desigualdad de Chernoff nos dice que si β = 1 - 4mZ1,,ZmY=i=1m(1Xi)μ=E[Y]=(1β)m , entonces μ = 4 ε m , y la probabilidad de fallo es P [ Y 2 ε m ] = P [ Y ( 1 - 1 / 2 ) μ ]exp ( - μ ( 1 / 2 ) 2 / 2 ) = exp ( - ϵ m / 2 ) . Para hacer esta cantidad más pequeña queβ=14ϵμ=4ϵm

P[Y2ϵm]=P[Y(11/2)μ]exp(μ(1/2)2/2)=exp(ϵm/2).
, necesitamos m 2δ .m2ϵln1δ

La observación clave es que la desigualdad de Chernoff es estrecha (hay que tener cuidado, porque no es correcta para todos los parámetros, pero es correcta en este caso), por lo que no se puede hacer mejor que eso (hasta constantes).

Segundo límite inferior: .Ω(logn/loglogn)

ini=LiL=Θ(logn/loglogn)iαi=(1/L)/ni1

jαj1=Lαjαjj1/L12

L

p=1/21L/81/8L/8

(1p)(7/8)>7/16>1/3.

Ω(1/ϵ2)

Sariel Har-Peled
fuente
Ω(1/ϵ)β<1β1/ϵXiϵ
Si. Si desea reunir solo para distinguir entre 1 y 1-épsilon, entonces, por supuesto, no puede mejorar el límite inferior ... Estaba pensando en tratar de distinguir otros rangos ... s
Sariel Har-Peled
4

Límite inferior

Ω(1/ϵ)

a1,,anϵ,2ϵ,3ϵ,4ϵ,na1++an=1n1/2ϵ

a1,,anϵa1=a1a2=a2ai=aiϵa1++an=1ϵ

a1,,ana1,,aniΩ(n)n1/2ϵΩ(1/ϵ)

Límite superior

O(lg(n/ϵ)[lgn+1/ϵ2])

[0,1]

[0,1]=[0,0.25ϵ/n](0.25ϵ/n,0.5ϵ/n](0.5ϵ/n,ϵ/n](ϵ/n,2ϵ/n](2ϵ/n,4ϵ/n](,1].

aiaiai[,u]i,jai,,aj[,u]O(lg(n/ϵ))

Ahora, calcularemos la suma de valores en cada rango. El primer rango se manejará por separado del resto:

  • [0,0.25ϵ/n)0m×0.25ϵ/nmmn0.25ϵ

  • δO(1/δ2)2×δ=0.25ϵ

0.25ϵ0.25ϵ0.5ϵ11ϵ

DW
fuente
Gracias, esto parece interesante (por lo que puedo decir, no es el mismo enfoque que el utilizado en el documento / discusión vinculado anteriormente), y voy a echar un vistazo más profundo a lo que escribió. Sin embargo, estoy buscando un límite inferior en lugar de un límite superior, es decir, cuántas consultas son necesarias .
Clemente C.
(Como se acabó el tiempo, de todos modos estoy otorgando la "recompensa" a la respuesta, aunque todavía estoy buscando una referencia para un límite inferior, si hay uno en algún lugar allí arriba).
Clement C.
2
@ClementC., Agregué un límite inferior, según su solicitud.
DW
nε