Este es un tratamiento más general del problema planteado por esta pregunta . Después de deducir la distribución asintótica de la varianza de la muestra, podemos aplicar el método Delta para llegar a la distribución correspondiente para la desviación estándar.
Deje una muestra de tamaño de iid variables aleatorias no normales , con media y varianza \ sigma ^ 2 . Establezca la media muestral y la varianza muestral como \ bar x = \ frac 1n \ sum_ {i = 1} ^ nX_i, \; \; \; s ^ 2 = \ frac 1 {n-1} \ sum_ {i = 1} ^ n (X_i- \ bar x) ^ 2{ X i } ,
Sabemos que
donde , y restringimos nuestra atención a las distribuciones para las cuales los momentos deben existir y ser finitos, existen y son finitos.
¿Sostiene eso?
mathematical-statistics
variance
central-limit-theorem
asymptotics
Alecos Papadopoulos
fuente
fuente
Respuestas:
Para las dependencias que surgen cuando consideramos la varianza de la muestra, escribimos
y después de una pequeña manipulación,
Por lo tanto
Manipulando,
El término convierte en unidad asintóticamente. El término es determinista y se pone a cero como .n/(n−1) n√n−1σ2 n→∞
También tenemos . El primer componente converge en distribución a Normal, el segundo converge en probabilidad a cero. Luego, según el teorema de Slutsky, el producto converge en probabilidad a cero,n−−√(x¯−μ)2=[n−−√(x¯−μ)]⋅(x¯−μ)
Nos quedamos con el término
Alertado por un ejemplo letal ofrecido por @whuber en un comentario a esta respuesta , queremos asegurarnos de que no sea constante. Whuber señaló que si es un Bernoulli entonces esta cantidad es una constante. Entonces, excluyendo las variables para las cuales esto sucede (quizás otras dicotómicas, ¿no solo binario?), Para el resto tenemos(Xi−μ)2 Xi (1/2) 0/1
y entonces el término bajo investigación es un tema habitual del Teorema del Límite Central clásico, y
Nota: el resultado anterior, por supuesto, también es válido para muestras distribuidas normalmente, pero en este último caso también tenemos disponible un resultado de distribución de chi-cuadrado de muestra finita.
fuente
Ya tiene una respuesta detallada a su pregunta, pero permítame ofrecerle otra. En realidad, es posible una prueba más corta basada en el hecho de que la distribución de
no depende de , digamos. Asintóticamente, tampoco importa si cambiamos el factor a , lo que haré por conveniencia. Entonces tenemosE(X)=ξ 1n−1 1n
Y ahora asumimos sin pérdida de generalidad que y notamos queξ=0
tiene un límite de probabilidad cero, ya que el segundo término está limitado en probabilidad (por el CLT y el teorema de mapeo continuo), es decir, es . El resultado asintótico ahora se desprende del teorema de Slutzky y el CLT, ya queOp(1)
donde . Y eso lo hará.τ2=Var{X2}=E(X4)−(E(X2))2
fuente
Las excelentes respuestas de Alecos y JohnK ya derivan el resultado que busca , pero me gustaría señalar algo más sobre la distribución asintótica de la varianza de la muestra.
Es común ver resultados asintóticos presentados utilizando la distribución normal, y esto es útil para establecer los teoremas. Sin embargo, en términos prácticos, el propósito de una distribución asintótica para una estadística de muestra es que le permite obtener una distribución aproximada cuando es grande. Hay muchas opciones que podría hacer para su aproximación de muestra grande, ya que muchas distribuciones tienen la misma forma asintótica. En el caso de la varianza muestral, en mi opinión, una distribución aproximada excelente para n grande viene dada por:n n
A diferencia de la aproximación normal derivada directamente del teorema, esta distribución tiene el soporte correcto para la estadística de interés. La varianza muestral no es negativa, y esta distribución tiene soporte no negativo.
Derivación del resultado anterior: los resultados de distribución aproximados para la media y la varianza de la muestra se analizan extensamente en O'Neill (2014) , y este documento proporciona derivaciones de muchos resultados, incluida la distribución aproximada actual.
Esta derivación comienza con el resultado limitante en la pregunta:
Reorganizando este resultado obtenemos la aproximación:
fuente