¿Cuál es un límite inferior ajustado en el tiempo de cobro de cupones?

20

En el problema clásico de Coupon Collector , es bien sabido que el tiempo necesario para completar un conjunto de cupones elegidos al azar satisface , y .TnE[T]nlnnVar(T)n2Pr(T>nlnn+cn)<ec

Este límite superior es mejor que el dado por la desigualdad de Chebyshev, que sería aproximadamente 1/c2 .

Mi pregunta es: ¿hay un límite inferior correspondiente mejor que Chebyshev para T ? (por ejemplo, algo como Pr(T<nlnncn)<ec )?

David
fuente
Un límite inferior obvio es Pr(T<n)=0 , pero supongo que estás al tanto de eso ...
para el

Respuestas:

14

Estoy proporcionando esto como una segunda respuesta ya que el análisis es completamente elemental y proporciona exactamente el resultado deseado.

Proposición Para c>0 y n1 ,

P(T<nlogncn)<ec.

La idea detrás de la prueba es simple:

  1. Representa el tiempo hasta que se recojan todos los cupones como T=i=1nTi , donde Ti es el momento en que se recolecta el i ésimo cupón único (hasta ahora) . Las Ti son variables aleatorias geométricas con tiempos medios de nni+1 .
  2. Aplique una versión del límite de Chernoff y simplifique.

Prueba

Para cualquier y cualquier , tenemos que t P ( T < t ) = P ( e - s T > e - s t ) e s t E e - s Ts>0

P(T<t)=P(esT>est)estEesT.

Como y son independientes, podemos escribir T i E e - s T = n i = 1 E e - s T iT=iTiTi

EesT=i=1nEesTi

Ahora, dado que es geométrico, digamos con probabilidad de éxito , entonces un cálculo simple muestra TiE e - s T i = p ipi

EesTi=pies1+pi.

Los para nuestro problema son , , , etc. Por lo tanto, p 1 = 1 p 2 = 1 - 1 / n p 3 = 1 - 2 / n n i = 1 E e - s T i = n i = 1 i / npip1=1p2=11/np3=12/n

i=1nEesTi=i=1ni/nes1+i/n.

Vamos a elegir y para algunos . Entonces y , dando t = n log n - c n c > 0 e s t = n e - c e s = e 1 / n1 + 1 / n n i = 1 i / ns=1/nt=nlogncnc>0

est=nec
es=e1/n1+1/n
i=1ni/nes1+i/ni=1nii+1=1n+1.

Al poner esto juntos, obtenemos que

P(T<nlogncn)nn+1ec<ec

como se desee.

cardenal
fuente
Eso es muy agradable y justo lo que recetó el médico. Gracias.
David
@David, solo curiosidad: ¿Cuál es la aplicación prevista?
Cardenal
Larga historia. Estoy tratando de demostrar un límite inferior para el tiempo de mezcla de una cadena de Markov que he preparado para analizar el tiempo de ejecución de un algoritmo que me interesa, lo que se reduce a un límite inferior de la c problema de coleccionista. Por cierto, había estado jugando tratando de encontrar exactamente este tipo de límite de estilo Chernoff, pero no había descubierto cómo deshacerse de ese producto en . Buena llamada eligiendo :-). s = 1 / nis=1/n
David
@David, , aunque casi seguramente subóptimo, parecía lo más obvio, ya que dio , que es el mismo término que el obtenido en la derivación para El límite superior. e s t = n e - cs=1/nest=nec
Cardenal
1
Solicitud : La prueba que he presentado anteriormente es la mía. Trabajé en ello por placer, ya que el problema me intrigaba. Sin embargo, no pretendo ser novedoso. De hecho, no puedo imaginar que una prueba similar usando una técnica similar ya no exista en la literatura. Si alguien conoce una referencia, publíquela como comentario aquí. Me interesaría mucho saber de uno.
Cardenal
9

Aunque @cardinal ya ha dado una respuesta que da precisamente el límite que estaba buscando, he encontrado un argumento similar al estilo de Chernoff que puede dar un límite más fuerte:

Proposición : (esto es más fuerte para )c > π 2

Pr(Tnlogncn)exp(3c2π2).
c>π23

Prueba :

Como en la respuesta de @ cardinal, podemos utilizar el hecho de que es una suma de variables aleatorias geométricas independientes con probabilidades de éxito . Se deduce que y .T i p i = 1 - i / n E [ T i ] = 1 / p iTTipi=1i/nE[Ti]=1/piE[T]=i=1nE[Ti]=ni=1n1inlogn

Defina ahora nuevas variables y . Entonces podemos escribir Si:=TiE[Ti]S:=iSi

Pr(Tnlogncn)Pr(TE[T]cn)=Pr(Scn)
=Pr(exp(sS)exp(scn))escnE[esS]

Calculando los promedios, tenemos

E[esS]=iE[esSi]=ies/pi1+1pi(es1)e12s2ipi2
donde la desigualdad se deriva de los hechos que y también para .es1sez1+ze12z2z0

Por lo tanto, dado que , podemos escribir ipi2=n2i=1n11i2n2π2/6

Pr(Tnlogncn)e112(nπs)2scn.

Minimizando sobre , finalmente obtenemos s>0

Pr(Tnlogncn)e3c2π2
David
fuente
1
(+1) Modulo un par de errores menores, esto es bueno. Expandir alrededor de algo cercano a la media como lo ha hecho a menudo funciona mejor. No me sorprende ver la convergencia de orden superior a la luz de los resultados asintóticos. Ahora, si muestra un límite superior similar, eso demuestra que es subexponencial en la terminología de Vershynin, lo que tiene muchas implicaciones con respecto a la concentración de la medida. (Tnlogn)/n
cardenal
1
El argumento no parece generalizarse directamente al límite superior. El intercambio de para (y para ), uno puede seguir los mismos pasos hasta el punto de cálculo de . En este punto, sin embargo, lo mejor que puedo hacer es usar , que todavía deja y yo no No sé qué hacer con estoccssE[esS]ies/pi1spiez1zexp(z22(1z))
E[esS]e12s2ipi2(1s/pi)
David
2
Sin embargo, es bastante interesante que todo el argumento (para el límite inferior) parece funcionar no solo para el problema del colector de cupones, sino para cualquier suma de variables geométricas independientes no idénticas con varianza limitada. Específicamente: dado , donde cada es un GV independiente con probabilidad de éxito , y donde , luego T=iTiTipiipi2A<
Pr(TE[T]a)ea22A
David
4

Nota importante : he decidido eliminar la prueba que proporcioné originalmente en esta respuesta. Fue más largo, más computacional, usó martillos más grandes y demostró un resultado más débil en comparación con la otra prueba que he dado. A su alrededor, un enfoque inferior (en mi opinión). Si está realmente interesado, supongo que puede ver las ediciones.

Los resultados asintóticos que cité originalmente y que todavía se encuentran a continuación en esta respuesta muestran que, como , podemos hacerlo un poco mejor que el límite demostrado en la otra respuesta, que se cumple para todos los .n n


Los siguientes resultados asintóticos se mantienen

P(T>nlogn+cn)1eec

y

P(Tnlogncn)eec.

La constante y los límites se toman como . Tenga en cuenta que, aunque están separados en dos resultados, son más o menos el mismo resultado, ya que no está limitado a ser negativo en ninguno de los casos.cRnc

Ver, por ejemplo, Motwani y Raghavan, Randomized Algorithms , pp. 60-63 para una prueba.


Además : David amablemente proporciona una prueba de su límite superior declarado en los comentarios a esta respuesta.

cardenal
fuente
Sí, se cumple para cada fijo . Se puede encontrar una prueba (muy simple), por ejemplo en el libro de Levin, Peres y Wilmer Markov Chains and Mixing Times, Proposición 2.4. Sin embargo, la prueba no funciona para el límite inferior. n
David
1
De hecho, también podría transcribir la prueba aquí: "Sea el caso de que el -ésimo tipo [cupón] no aparezca entre los primeros cupones extraídos. Observe primero que . Dado que cada prueba tiene una probabilidad de no recibir el cupón y las pruebas son independientes, el lado derecho de arriba está limitado por , probando (2.7) ". Aiinlogn+cnP(τ>nlogn+cn)=P(iAi)iP(Ai)1n1ii(11/n)nlogn+cnnexp(nlogn+cnn)=ec
David
@David, eso es agradable y simple. Rápidamente jugué con expandir la fórmula de inclusión-exclusión por otro término, pero no llegué a ningún lado rápidamente y no he tenido tiempo de analizarlo más. El evento es equivalente al evento de que no quedan cupones después de intentos. Debería haber una martingala asociada con eso. ¿Intentó la desigualdad de Hoeffding en la (presunta) martingala asociada? El resultado asintótico sugiere una fuerte concentración de medida. t n{T<tn}tn
cardenal
@David, hay un cambio de signo en tu prueba anterior, pero estoy seguro de que eso también es obvio para otros lectores.
cardenal
@David, mira mi otra respuesta publicada a tu pregunta. El método es diferente al límite superior que usted proporciona, pero las herramientas empleadas son casi tan elementales, en contraste con la respuesta que le di aquí.
cardenal
2

Benjamin Doerr ofrece (en el capítulo "Análisis de la heurística de búsqueda aleatoria: herramientas de la teoría de la probabilidad" en el libro "Teoría de la heurística de búsqueda aleatoria", vea el enlace para un PDF en línea) una prueba algo simple de

Propuesta Deje que sea ​​el tiempo de parada del proceso de recolección de cupones. Entonces .Pr [ T ( 1 - ϵ ) ( n - 1 ) ln n ] e - n ϵTPr[T(1ϵ)(n1)lnn]enϵ

Esto parece dar las asíntotas deseadas (de la segunda respuesta de @ cardinal), pero con la ventaja de ser cierto para todos y .ϵnϵ

Aquí hay un boceto de prueba.

Boceto de prueba: Sea el caso de que el -ésimo cupón se recoja en los primeros sorteos. Por lo tanto, . El hecho clave es que las están negativamente correlacionadas, para cualquier , . Intuitivamente, esto es bastante claro, como saber que el cupón -ésimo en el primer atrae haría menos probable que el cupón -ésimo También se señala en el primer atrae. XiitPr[Xi=1]=(11/n)tXiI[n]Pr[iI,Xi=1]iIPr[Xi=1]itjt

Uno puede probar la afirmación, pero ampliando el conjunto en 1 en cada paso. Entonces se reduce a mostrar que , para . De manera equivalente, al promediar, se reduce a mostrar que . Doerr solo da un argumento intuitivo para esto. Una vía para una prueba es la siguiente. Se puede observar que, condicionado al cupón viene después de todos los cupones en , que la probabilidad de sacar un nuevo cupón de después de sacar hasta ahora es ahora , en lugar del anteriorIPr[iI,Xi=1|Xj=1]Pr[iI,Xi=1]jIj I I k | Yo | - kPr[iI,Xi=1|Xj=0]Pr[iI,Xi=1]jIIk | Yo| -k|I|kn1 jI|I|kn . Entonces, al descomponer el tiempo para recolectar todos los cupones como una suma de variables geométricas aleatorias, podemos ver que el condicionamiento del cupón que viene después de que aumente las probabilidades de éxito, y por lo tanto, hacer el condicionamiento solo hace que sea más probable recoger los cupones antes por dominio estocástico: cada variable aleatoria geométrica se incrementa, en términos de dominio estocástico, por el condicionamiento, y este dominio se puede aplicar a la suma).jI

Dada esta correlación negativa, se deduce que , que da el límite deseado con . t = ( 1 - ϵ ) ( n - 1 ) ln nPr[T(1ϵ)(n1)lnn](1(11/n)t)nt=(1ϵ)(n1)lnn

miforbes
fuente