Aproximación normal a la distribución de Poisson.

12

Aquí en Wikipedia dice:

Para valores suficientemente grandes de λ , (digamos λ>1000 ), la distribución normal con media λ y varianza λ (desviación estándar λ ), es una excelente aproximación a la distribución de Poisson. Siλes mayor que aproximadamente 10, entonces la distribución normal es una buena aproximación si se realiza una corrección de continuidad apropiada, es decir,P(Xx),donde (en minúsculas)xes un entero no negativo, se reemplaza porP(Xx+0.5).

FPoisson(x;λ)Fnormal(x;μ=λ,σ2=λ)

Lamentablemente esto no se cita. Quiero poder mostrar / probar esto con cierto rigor. ¿Cómo puede realmente decir que la distribución normal es una buena aproximación cuando λ>1000 , cómo cuantifica esta aproximación 'excelente', qué medidas se utilizaron?

Lo más avanzado que tengo con esto es aquí, donde John habla sobre el uso del teorema de Berry-Esseen y aproxima el error en los dos CDF. Por lo que puedo ver, no prueba ningún valor de λ1000 .

hgeop
fuente
66
No puedes probarlo sin definir 'bueno'. (Puede probar un resultado asintótico, pero no puede declarar que es "bueno" en un tamaño de muestra específico sin definir sus criterios). Puede demostrar su comportamiento mediante un ejemplo directo (a partir del cual las personas pueden ver qué tan bueno es "bueno" es por sus propias luces). Para los criterios típicos que las personas tienden a usar, una corrección de continuidad funciona bien para siempre que no profundices en la cola. λ>10
Glen_b -Reinstale a Monica el
1
(Para ser más específicos, si su criterio es error absoluto, que potencialmente puede lograr 'bueno' en todas partes a los pequeños tamaños de muestra como 10, pero la mayoría de las personas se preocupan por algo más cerca de error relativo)
Glen_b -Reinstate Monica

Respuestas:

7

XλYλPr ( Y [ n - 1Pr(X=n)n=λ+αPr(Y[n12,n+12]) nαn=λ+αλnα

Entonces hice trampa. Yo usé Mathematica. Entonces, tanto como son asintóticos a como . Pero su diferencia es asintótica a Si Si traza esto en función de , obtendrá la misma curva que se muestra en la penúltima figura en http://www.johndcook.com/blog/normal_approx_to_poisson/ .Pr ( Y [ n - 1Pr(X=n)1Pr(Y[n12,n+12])lambdaα(α2-3)e-α2/2

12πλeα2/2
λα
α(α23)eα2/262πλ
α

Aquí están los comandos que usé:

  n = lambda + alpha Sqrt[lambda];
  p1 = Exp[-lambda] lambda^n/n!;
  p2 = Integrate[1/Sqrt[2 Pi]/Sqrt[lambda] Exp[-(x-lambda)^2/2/lambda], {x, n-1/2, n+1/2}];
  Series[p1, {lambda, Infinity, 1}]
  Series[p2, {lambda, Infinity, 1}]

Además, con un poco de experimentación, me parece que una mejor aproximación asintótica a es . Entonces el error es que es aproximadamente veces más pequeño.Pr ( Y [ n - α 2 / 6 , n + 1 - α 2 / 6 ] ) - ( 5 α 4 - 9 α 2 - 6 ) e - α 2 / 2Pr(X=n)Pr(Y[nα2/6,n+1α2/6])

(5α49α26)eα2/2722πλ3/2
λ
Stephen Montgomery-Smith
fuente
2

Glen_b tiene razón en que "buen ajuste" es una noción muy subjetiva. Sin embargo, si desea verificar que su distribución de Poisson es razonablemente normal, puede utilizar una prueba hipotética de Kolmorgov-Smirnov con la hipótesis nula de el CDF proviene de una distribución , suponiendo su muestra vendrá de un poisson ( ). Como en realidad no está probando una muestra, sino una distribución frente a otra, debe pensar detenidamente sobre el tamaño de la muestra y el nivel de significación que asume para esta prueba hipotética (ya que no estamos usando la prueba KS en su forma típica). Es decir:N ( λ , λ ) λH0:N(λ,λ)λ

  • Elija un tamaño de muestra representativo e hipotético, n, y ajuste el nivel de significación de la prueba a un valor típico, por ejemplo, 5%.

Ahora, calcule la tasa de error de Tipo II para esta prueba asumiendo que sus datos realmente provienen de un poisson ( ). Su grado de ajuste con una distribución normal será esta tasa de error Tipo II, en el sentido de que las muestras de tamaño n de su distribución particular de poisson serán, en promedio, aceptadas % del tiempo por una prueba de normalidad KS en su selección Nivel significativo.βλβ

De todos modos, esa es solo una forma de conseguir una sensación de "bondad de ajuste". Sin embargo, todos se basan en algunas nociones subjetivas de "bondad" que tendrá que definir por sí mismo.


fuente
2

La derivación de la distribución binomial podría darle alguna idea.

Tenemos una variable aleatoria binomial;

p(x)=(nx)px(1p)nx

Alternativamente, esto se puede calcular de forma recursiva;

p(x)=(nx+1)px(1p)p(x1)

Si mantiene la condición inicial;

p(0)=(1p)n

Ahora supongamos que es grande y es pequeño, pero el éxito promedio de es constante . Entonces podemos hacer lo siguiente;npp(x)(np=λ)

P(X=i)=(ni)px(1p)nx

Usamos que .p=λ/n

P(X=i)=n!(ni)!i!(λn)i(1λn)ni

Cambiamos algunas variables y evaluamos;

P(X=i)=n(n1)(n2)(ni+1)niλii!(1λn)n(1λn)i

Por cálculo sabemos que . También sabemos que porque tanto la parte superior como la inferior son polinomios de grado .limn(1+x/n)n=ex[n(n1)(n2)(ni+1)]/ni1i

Esto lleva a la conclusión de que como :n

P(X=i)eλλii!

Luego puede verificar que y través de la definición. Sabemos que la distribución binomial se aproxima a la normal en las condiciones del Teorema de De Moivre-Laplace siempre que corrija la continuidad, por lo que se reemplaza por .E(X)=λVar(X)=λP(Xx)P(Xx+0.5)

Vincent Warmerdam
fuente