Supongamos que son variables aleatorias independientes que toman valores o con probabilidad 0.5 cada uno. Considere la suma . Deseo el límite superior de la probabilidad . El mejor límite que tengo en este momento es donde c es una constante universal. Esto se logra limitando la probabilidad Pr (| x_1 + \ dots + x_n | <\ sqrt {t}) y Pr (| y_1 + \ dots + y_n | <\ sqrt {t}) mediante la aplicación de límites simples de Chernoff. ¿Puedo esperar obtener algo que sea significativamente mejor que este límite? Para empezar, ¿puedo al menos obtener . Si puedo obtener colas subgaussianas, eso probablemente sería lo mejor, pero ¿podemos esperar eso (no lo creo pero no puedo pensar en una discusión)?
probability
random-variable
bernoulli-distribution
usuario1189053
fuente
fuente
Respuestas:
La relacion algebraica
exhibe como el producto de dos sumas independientes. Como y son variantes independientes de Bernoulli , es una variable binomial que ha sido duplicado y desplazado. Por lo tanto, su media es y su varianza es . Del mismo modo, tiene una media de y una varianza de . Estandaricemos ahora mismo definiendoS (xi+1)/2 (yj+1)/2 (1/2) X=∑ai=1xi (a,1/2) 0 a Y=∑bj=1yj 0 b
De dónde
Para un alto (y cuantificable) grado de precisión, como aumenta de tamaño aproxima a la distribución normal estándar. Por lo tanto, aproximaremos como veces el producto de dos normales estándar.a Xa S ab−−√
El siguiente paso es notar que
es un múltiplo de la diferencia de los cuadrados de las variables normales estándar independientes y . La distribución de puede calcularse analíticamente ( invirtiendo la función característica ): su pdf es proporcional a la función de Bessel de orden cero, . Debido a que esta función tiene colas exponenciales, llegamos a la conclusión inmediata de que para y grandes y fija , no hay mejor aproximación a que la dada en la pregunta.U V Zab K0(|z|)/π a b t Pra,b(S>t)
Queda algo de mejora cuando uno (al menos) de y no es grande o en puntos en la cola de cerca de . Los cálculos directos de la distribución de muestran una disminución curva de las probabilidades de cola en puntos mucho más grandes que , aproximadamente más allá de . Estas gráficas log-lineales del CDF de para varios valores de (dados en los títulos) (que varían aproximadamente sobre los mismos valores que , distinguidos por el color en cada gráfica) muestran lo que está sucediendo. Como referencia, la gráfica de la limitacióna b S ±ab S ab−−√ abmax(a,b)−−−−−−−−−−√ S a b a K0 La distribución se muestra en negro. (Debido a que es simétrica alrededor de , , entonces es suficiente mirar la cola negativa).S 0 Pr(S>t)=Pr(−S<−t)
A medida que crece, el CDF se acerca a la línea de referencia.b
Caracterizar y cuantificar esta curvatura requeriría un análisis más fino de la aproximación normal a las variantes binomiales.
La calidad de la aproximación de la función de Bessel se vuelve más clara en estas porciones ampliadas (de la esquina superior derecha de cada gráfico). Ya estamos bastante lejos en las colas. Aunque la escala vertical logarítmica puede ocultar diferencias sustanciales, claramente para cuando ha alcanzado la aproximación es buena para .a 500 |S|<ab√
Código R para calcular la distribución deS
Lo siguiente tardará unos segundos en ejecutarse. (Se calcula varios millones de probabilidades para 36 combinaciones de y .) En las máquinas más lentas, omitir los más grandes uno o dos valores de y y aumentar el límite de trazado inferior de de alrededor de .a b 10−300 10−160
a
b
fuente
1/2 (1 + y BesselK[0,-y] StruveL[-1, y] - y BesselK[1,-y] StruveL[0, y])
. Sería interesante ver cómo: (a) se realiza el límite del OP, y (b) se realiza su aproximación normal, para el caso que estábamos viendo anteriormente, es decir, derivado usando la solución discreta pmf exacta.Comentario: edité el título en un intento de reflejar mejor qué tipo de vehículos se consideran en la pregunta. Cualquiera puede reeditar libremente.
Motivación: supongo que no hay necesidad de conformarse con un límite superior, si podemos derivar la distribución de. ( ACTUALIZACIÓN : No podemos ver los comentarios y la respuesta de Whuber).|Sab|
Denotan . Es fácil verificar que 's tienen la misma distribución que la ' s y el 's. La función generadora de momento esZk=XiYj,k=1,...,ab Z X Y
Además, las son, para empezar, independientes por pares: la variable (los índices pueden ser cualquiera, por supuesto), tiene soporte con las probabilidades correspondientes . Su función generadora de momento esZ W=Z1+Z2 {−2,0,2} {1/4,1/2,1/4}
Intentaré sospechar que la independencia total es válida, como sigue (¿es obvio para los más sabios?): Para esta parte, denote . Luego, por la regla de la cadenaZij=XiYj
Por independencia en pares, tenemos . Considere . y son condicionales independientes de por lo que tenemos la segunda igualdad por independencia en pares. Pero esto implica queP[Z12∣Z11]=P[Z12]
P[Z13,Z12∣Z11] Z13 Z12 Z11
Etc (creo). ( ACTUALIZACIÓN : Pienso mal . La independencia probablemente sea válida para cualquier triplete, pero no para todo el grupo. Entonces, lo que sigue es solo la derivación de la distribución de una caminata aleatoria simple, y no una respuesta correcta a la pregunta: vea Wolfies y Las respuestas de Whuber).
Si la independencia total es válida, tenemos la tarea de derivar la distribución de una suma de iid dicotómicos rv's
que parece una simple caminata aleatoria , aunque sin la clara interpretación de este último como una secuencia.
Si el soporte de serán los enteros pares en incluyendo cero, mientras que si el soporte de serán los enteros impares en , sin cero.ab=even S [−ab,...,ab] ab=odd S [−ab,...,ab]
Tratamos el caso de . Denote como el número de toman el valor . Entonces el soporte de se puede escribir . Para cualquier dado , obtenemos un valor único para . Además, debido a las probabilidades simétricas y la independencia (¿o solo a la intercambiabilidad?), Todas las posibles realizaciones conjuntas de las variables son equiprobables. Entonces contamos y encontramos que la función de masa de probabilidad de es,ab=odd
m Z −1 S S∈{ab−2m;m∈Z+∪{0};m≤ab} m S Z {Z1=z1,...,Zab=zab} S
Definiendo , y número impar por construcción, y el elemento típico del soporte de , tenemoss≡ab−2m S
Mudarse a, dado que si , la distribución de es simétrica alrededor de cero sin asignar la masa de probabilidad a cero, por lo que la distribución dese obtiene "doblando" el gráfico de densidad alrededor del eje vertical, esencialmente duplicando las probabilidades de valores positivos,|S| ab=odd S |S|
Entonces la función de distribución es
Por lo tanto, para cualquier real , , obtenemos la probabilidad requeridat 1≤t<ab
Tenga en cuenta que la indicación garantiza que la suma se ejecutará solo hasta valores incluidos en el soporte de- por ejemplo, si establecemos , todavía a correr hasta , ya que está limitado a ser impar, además de ser un número entero.i=odd |S| t=10.5 i 9
fuente
No es una respuesta, sino un comentario sobre la interesante respuesta de Alecos que es demasiado largo para caber en un cuadro de comentarios.
Deje que sean variables aleatorias independientes de Rademacher, y deje que sean variables aleatorias independientes de Rademacher. Alecos señala que:(X1,...,Xa) (Y1,...,Yb)
"... parece una simple caminata aleatoria ". Si fuera como una simple caminata aleatoria, entonces la distribución de sería simétrica 'unimodal en forma de campana' alrededor de 0.S
Para ilustrar que no se trata de una simple caminata aleatoria, aquí hay una comparación rápida de Monte Carlo de:
Claramente, no es una simple caminata aleatoria; También tenga en cuenta que S no se distribuye en todos los enteros pares (o impares).S
Monte Carlo
Aquí está el código (en Mathematica ) utilizado para generar una única iteración de la suma , dados y :S a b
Entonces, 500.000 tales caminos, dicen cuando y , se pueden generar con:a=5 b=7
El dominio de soporte para esta combinación de y es:a b
fuente
a
yb
tanto menos de 1000, de todos modos) comorademacher[a_] := Transpose[{Range[-a, a, 2], Array[Binomial[a, #] &, a + 1, 0] /2^a}]; s[a_, b_] := {#[[1, 1]], Total[#[[;; , 2]]]} & /@ GatherBy[Flatten[Outer[Times, rademacher[a], rademacher[b], 1], 1], First]; ListLogPlot[s[5, 7]]
Inténtelo con, por ejemplo,s[100,211]
.WHuberSumAB[a_, b_] := Total[RandomChoice[{-1, 1}, a]] * Total[RandomChoice[{-1, 1}, b]]
... es el doble de rápido que elOuter
enfoque. ¿Tienes curiosidad por saber qué código estás usando? [Ambos enfoques pueden, por supuesto, hacerse más rápido usandoParallelTable
, etc.]sum[n_, a_, b_] := Block[{w, p}, w[x_] := Array[Binomial[x, #] &, x + 1, 0] /2^x; p[x_] := RandomChoice[w[x] -> Range[-x, x, 2], n]; p[a] p[b]]
. Entonces el tiempoTally[sum[500000, 5, 7]]
. ParaR
aficianodos, la siguiente hace lo mismo y toma sólo el 50% más largo que Mathematica :s <- function(n, a, b) (2 * rbinom(n, a, 1/2) - a)*(2 * rbinom(n, b, 1/2) - b); system.time(x <- table(s(5*10^5, 5, 7))); plot(log(x), col="#00000020")
.