Error en la aproximación normal a una distribución de suma uniforme

20

Un método ingenuo para aproximar una distribución normal es sumar quizás unas variables aleatorias IID distribuidas uniformemente en , luego volver a centrar y reescalar, confiando en el Teorema del límite central. ( Nota al margen : existen métodos más precisos, como la transformación Box-Muller ). La suma de las variables aleatorias IID se conoce como distribución de suma uniforme o distribución de Irwin-Hall .100[0,1]U(0,1)

¿Qué tan grande es el error al aproximar una distribución de suma uniforme por una distribución normal?

Cada vez que surge este tipo de pregunta para aproximar la suma de las variables aleatorias del IID, las personas (incluido yo) mencionan el Teorema de Berry-Esseen , que es una versión efectiva del Teorema del límite central dado que existe el tercer momento:

|Fn(x)Φ(x)|Cρσ3n

donde es la función de distribución acumulativa para la suma reescalada de variables aleatorias IID, es el tercer momento central absoluto, es la desviación estándar, y es una constante absoluta que puede tomarse como o incluso .FnnρE|(XEX)3|σC11/2

Esto es insatisfactorio. Me parece que la estimación de Berry-Esenen es más cercana a aguda en las distribuciones binomiales que son discretas, con el mayor error en para una distribución binomial simétrica. El error más grande viene en el salto más grande. Sin embargo, la distribución de suma uniforme no tiene saltos.0

Las pruebas numéricas sugieren que el error se reduce más rápidamente que .c/n

Usando 1/2, la estimación Berry – Esseen esC=1/2

|Fn(x)Φ(x)|121321123n0.650n

que para es aproximadamenten=10,20,400.205 , y 0,103 , respectivamente. Las diferencias máximas reales para n = 10 , 20 , 40 parecen ser aproximadamente 0.00281 , y , respectivamente, que son mucho más pequeñas y parecen caer como lugar de .0.1450.103n=10,20,400.002810.001390.000692c/nc/n

Douglas Zare
fuente
77
Si expande la distribución de la suma en una expansión de Edgeworth , encontrará que uniformemente en x como n (ya que la distribución uniforme es simétrica), por lo que c / n suena aproximadamente a la derecha. Debido a la o ( n - 1 )Fn(x)=Φ(x)+n1g(x)+o(n1)xnc/no(n1)término, eso no te da un límite sin embargo ...
MånsT
1
Gracias, parece que también explica el patrón para muchas otras distribuciones. c/n
Douglas Zare

Respuestas:

17

Supongamos que sean iid U ( - b , b ) variables aleatorias y consideremos la suma normalizada S n = U1,U2,U(b,b) y lanorma sup asociada δ n = sup x R | F n ( x ) - Φ ( x ) |

Sn=3i=1nUibn,
sup donde F n es la distribución de S n .
δn=supxR|Fn(x)Φ(x)|,
FnSn

Lema 1 ( Uspensky ): se cumple el siguiente límite en . δ n < 1δn

δn<17.5πn+1π(2π)n+12π3nexp(π2n/24).

Prueba . Ver JV Uspensky (1937), Introducción a la probabilidad matemática , Nueva York: McGraw-Hill, p. 305.

Esto fue mejorado por R. Sherman a lo siguiente.

Lemma 2 ( Sherman ): La siguiente mejora en las reservas de límite de Uspensky.

δn<17.5πn(π180+17.5πn)eπ2n/24+1(n+1)π(2π)n+12π3neπ2n/24.

Prueba : Ver R. Sherman, Error de la aproximación normal a la suma de N variables aleatorias , Biometrika , vol. 58, no. 2, 396–398.

(sinx)/x

cardenal
fuente
2
N=n
@ Procrastinator: Buena captura.
cardenal
1
2