Un método ingenuo para aproximar una distribución normal es sumar quizás unas variables aleatorias IID distribuidas uniformemente en , luego volver a centrar y reescalar, confiando en el Teorema del límite central. ( Nota al margen : existen métodos más precisos, como la transformación Box-Muller ). La suma de las variables aleatorias IID se conoce como distribución de suma uniforme o distribución de Irwin-Hall .
¿Qué tan grande es el error al aproximar una distribución de suma uniforme por una distribución normal?
Cada vez que surge este tipo de pregunta para aproximar la suma de las variables aleatorias del IID, las personas (incluido yo) mencionan el Teorema de Berry-Esseen , que es una versión efectiva del Teorema del límite central dado que existe el tercer momento:
donde es la función de distribución acumulativa para la suma reescalada de variables aleatorias IID, es el tercer momento central absoluto, es la desviación estándar, y es una constante absoluta que puede tomarse como o incluso .
Esto es insatisfactorio. Me parece que la estimación de Berry-Esenen es más cercana a aguda en las distribuciones binomiales que son discretas, con el mayor error en para una distribución binomial simétrica. El error más grande viene en el salto más grande. Sin embargo, la distribución de suma uniforme no tiene saltos.
Las pruebas numéricas sugieren que el error se reduce más rápidamente que .
Usando 1/2, la estimación Berry – Esseen es
que para es aproximadamente , y 0,103 , respectivamente. Las diferencias máximas reales para n = 10 , 20 , 40 parecen ser aproximadamente 0.00281 , y , respectivamente, que son mucho más pequeñas y parecen caer como lugar de .
fuente
Respuestas:
Supongamos que sean iid U ( - b , b ) variables aleatorias y consideremos la suma normalizada S n = √U1,U2,… U(−b,b)
y lanorma
sup asociada δ n = sup x ∈ R | F n ( x ) - Φ ( x ) |
Lema 1 ( Uspensky ): se cumple el siguiente límite en . δ n < 1δn
Prueba . Ver JV Uspensky (1937), Introducción a la probabilidad matemática , Nueva York: McGraw-Hill, p. 305.
Esto fue mejorado por R. Sherman a lo siguiente.
Lemma 2 ( Sherman ): La siguiente mejora en las reservas de límite de Uspensky.
Prueba : Ver R. Sherman, Error de la aproximación normal a la suma de N variables aleatorias , Biometrika , vol. 58, no. 2, 396–398.
fuente