¿Por qué aumentar el tamaño de la muestra disminuye la varianza (de muestreo)?

35

Cuadro grande:

Estoy tratando de entender cómo aumentar el tamaño de la muestra aumenta la potencia de un experimento. Las diapositivas de mi profesor explican esto con una imagen de 2 distribuciones normales, una para la hipótesis nula y otra para la hipótesis alternativa y un umbral de decisión c entre ellas. Argumentan que aumentar el tamaño de la muestra reducirá la varianza y, por lo tanto, causará una curtosis más alta, reduciendo el área compartida debajo de las curvas y, por lo tanto, la probabilidad de un error de tipo II.

Pequeña imagen:

No entiendo cómo un tamaño de muestra más grande reducirá la varianza.
Supongo que solo calcula la varianza de la muestra y la usa como parámetro en una distribución normal.

Lo intenté:

  • busca en Google , pero las respuestas más aceptadas tienen 0 votos a favor o son simplemente ejemplos
  • pensamiento : según la ley de los números grandes, cada valor eventualmente debería estabilizarse alrededor de su valor probable de acuerdo con la distribución normal que asumimos. Y, por lo tanto, la varianza debería converger a la varianza de nuestra distribución normal supuesta. Pero, ¿cuál es la varianza de esa distribución normal y es un valor mínimo, es decir, podemos estar seguros de que nuestra varianza muestra disminuye a ese valor?
usuario2740
fuente
Su experimento mental se refería a datos distribuidos normalmente, pero también se aplica a datos extraídos de muchas otras distribuciones (como señaló @Aksakal, ¡no todos! El Cauchy es un ejemplo comúnmente citado de tan mal comportamiento). Para los datos binomiales hay una buena discusión sobre cómo la potencia y el error estándar varían con el tamaño de la muestra en stats.stackexchange.com/q/87730/22228
Silverfish
1
Como usted es nuevo en CrossValidated, permítame señalar que si recibió lo que considera una respuesta satisfactoria, debe considerar marcarlo como "aceptado" haciendo clic en una marca verde a la izquierda. Esto proporciona una reputación adicional para el respondedor y también marca la cuestión como resuelta.
ameba dice Reinstate Monica
Lo pienso así: cada nuevo punto tiene información única. Los puntos infinitos tienen suficiente para hacer una estimación perfecta. A medida que agregamos más y más nuevos puntos de muestra, la diferencia entre la información que necesitamos para tener una estimación perfecta y la información que realmente tenemos se vuelve cada vez más pequeña.
EngrStudent - Restablece a Monica el
Esta es la fuente de la confusión: no es la varianza de la muestra que disminuye, sino la varianza de la muestra. La varianza muestral es un estimador (por lo tanto, una variable aleatoria). Si sus datos provienen de un N normal (0, 5), la varianza de la muestra estará cerca de 5. ¿Qué tan cerca? Depende de la varianza de su estimador para la varianza de la muestra. Con 100 puntos de datos, puede encontrar algo como 4.92. Con 1000, encontrarás algo como 4.98. Con 10000, encontrarás 5.0001. También aumenta la precisión de sus mediciones, no sus propias mediciones.
Ant

Respuestas:

32

Las desviaciones estándar de los promedios son más pequeñas que las desviaciones estándar de las observaciones individuales. [Aquí supondré observaciones independientes idénticamente distribuidas con varianza de población finita; se puede decir algo similar si relaja las dos primeras condiciones.]

Es una consecuencia del simple hecho de que la desviación estándar de la suma de dos variables aleatorias es menor que la suma de las desviaciones estándar (solo puede ser igual cuando las dos variables están perfectamente correlacionadas).

De hecho, cuando se trata de variables aleatorias no correlacionadas, podemos decir algo más específico: la varianza de una suma de variables es la suma de sus varianzas.

Esto significa que con variaciones independientes (o incluso no correlacionadas) con la misma distribución, la varianza de la media es la varianza de un individuo dividida por el tamaño de la muestra .n

En correspondencia con variaciones independientes (o incluso no correlacionadas) con la misma distribución, la desviación estándar de su media es la desviación estándar de un individuo dividida por la raíz cuadrada del tamaño de la muestra:n

σX¯=σ/n .

Entonces, a medida que agrega más datos, obtiene estimaciones cada vez más precisas de las medias grupales. Un efecto similar se aplica en problemas de regresión.

Dado que podemos obtener estimaciones más precisas de los promedios al aumentar el tamaño de la muestra, podemos distinguir más fácilmente los medios que están muy juntos, a pesar de que las distribuciones se superponen bastante, al tomar un gran tamaño de muestra aún podemos estimar su población significa con la suficiente precisión como para decir que no son lo mismo.

Glen_b -Reinstate a Monica
fuente
8

La variabilidad que se reduce cuando N aumenta es la variabilidad de la media muestral, a menudo expresada como error estándar. O, en otros términos, la certeza de la veracidad de la media muestral está aumentando.

Imagina que ejecutas un experimento donde recolectas 3 hombres y 3 mujeres y mides sus alturas. ¿Qué tan seguro está de que las alturas medias de cada grupo son la verdadera media de las poblaciones separadas de hombres y mujeres? Debería pensar que no estarías muy seguro en absoluto. Podría recolectar fácilmente nuevas muestras de 3 y encontrar nuevas medias a varias pulgadas de las primeras. Muchos de los experimentos repetidos como este podrían incluso resultar en que las mujeres sean declaradas más altas que los hombres porque los medios variarían mucho. Con un N bajo, no tiene mucha certeza en la media de la muestra y varía mucho de una muestra a otra.

Ahora imagine 10,000 observaciones en cada grupo. Va a ser bastante difícil encontrar nuevas muestras de 10,000 que tengan medios que difieran mucho entre sí. Serán mucho menos variables y estarás más seguro de su precisión.

Si puede aceptar esta línea de pensamiento, entonces podemos insertarla en los cálculos de sus estadísticas como error estándar. Como puede ver en su ecuación, es una estimación de un parámetro, (que debería ser más preciso a medida que n aumenta) dividido por un valor que siempre aumenta con n, . Ese error estándar representa la variabilidad de las medias o efectos en sus cálculos. Cuanto más pequeño es, más potente es su prueba estadística.σn

Aquí hay una pequeña simulación en R para demostrar la relación entre un error estándar y la desviación estándar de las medias de muchas muchas repeticiones del experimento inicial. En este caso, comenzaremos con una media poblacional de 100 y una desviación estándar de 15.

mu <- 100
s <- 50
n <- 5
nsim <- 10000 # number of simulations
# theoretical standard error
s / sqrt(n)
# simulation of experiment and the standard deviations of their means
y <- replicate( nsim, mean( rnorm(n, mu, s) ) )
sd(y)

Observe cómo la desviación estándar final está cerca del error estándar teórico. Al jugar con la variable n aquí, puede ver que la medida de variabilidad se reducirá a medida que n aumente.

[Como comentario aparte, la curtosis en los gráficos no está cambiando realmente (suponiendo que sean distribuciones normales). Bajar la varianza no cambia la curtosis, pero la distribución se verá más estrecha. La única forma de examinar visualmente los cambios de curtosis es colocar las distribuciones en la misma escala.]

John
fuente
tenías razón, debería pensar más de mi parte en el futuro: P
j__
Dos cosas no están del todo claras: (1) ¿Son las curvas de campana que OP habla sobre distribuciones de medias de muestra? (2) ¿Se consideran los tamaños de muestra tanto para la distribución de la media de las muestras del grupo de control como para la distribución de la media de las muestras del grupo experimental?
Lenar Hoyt
4

Si quisiera saber cuál es el peso promedio de los ciudadanos estadounidenses, en el caso ideal le pediría de inmediato a cada ciudadano que se suba a la báscula y recopile los datos. Tendría una respuesta exacta . Esto es muy difícil, por lo que tal vez podría lograr que algunos ciudadanos suban de escala, calculen el promedio y tengan una idea de cuál es el promedio de la población. ¿Esperaría que el promedio de la muestra sea exactamente igual al promedio de la población? Espero que no.

Ahora, ¿estaría de acuerdo en que si tuviera más y más personas, en algún momento estaríamos más cerca de la población? Deberíamos, ¿verdad? Al final, la mayoría de las personas que podemos obtener es toda la población, y su significado es lo que estamos buscando. Esta es la intuición.

Este fue un experimento de pensamiento idealizado. En realidad, hay complicaciones. Te daré dos.

  • Imagine que los datos provienen de una distribución Cauchy . Puede aumentar su muestra infinitamente, pero la varianza no disminuirá. Esta distribución no tiene varianza poblacional. De hecho, estrictamente hablando, tampoco tiene una media de muestra. Es triste. Sorprendentemente, esta distribución es bastante real, aparece aquí y allá en física.
  • Imagine que decidió continuar con la tarea de determinar el peso promedio de los ciudadanos estadounidenses. Entonces, tomas tu balanza y te vas de casa en casa. Esto te llevará muchos años. Para cuando recopile millones de observaciones, algunos de los ciudadanos de su conjunto de datos habrán cambiado mucho su peso, algunos habrían muerto, etc. El hecho es que aumentar el tamaño de la muestra en este caso no lo ayuda.
Aksakal
fuente
1
Sospecho que quisiste decir "peso promedio" en tu primera oración. Me gusta el uso de un experimento mental. Otra complicación puede provenir de su herramienta de medición, es decir, las escalas que se desgastarán, pueden tener un error de paralaje o un error del usuario que introduce otra variabilidad.
MarkR
1

Creo que la Ley de Números Grandes explica por qué la varianza (error estándar) disminuye cuando aumenta el tamaño de la muestra. El artículo de Wikipedia sobre esto dice:

Según la ley, el promedio de los resultados obtenidos de una gran cantidad de ensayos debe estar cerca del valor esperado y tenderá a acercarse a medida que se realicen más ensayos.

En términos del Teorema del límite central:

Cuando se extrae una muestra aleatoria única, cuanto más grande es la muestra, más se acerca la media de la muestra a la media de la población (en la cita anterior, piense en "número de ensayos" como "tamaño de muestra", por lo que cada "ensayo" es una observación ) Por lo tanto, al dibujar un número infinito de muestras aleatorias, la varianza de la distribución de muestreo será menor cuanto mayor sea el tamaño de cada muestra.

En otras palabras, la forma de la campana será más estrecha cuando cada muestra sea grande en lugar de pequeña, porque de esa manera cada media de la muestra estará más cerca del centro de la campana.

Jose Vila
fuente
0

A medida que aumenta el tamaño de la muestra, aumenta la varianza de la muestra (variación entre observaciones) pero la varianza de la media de la muestra (error estándar) disminuye y, por lo tanto, aumenta la precisión.

Dr. Vikas Doshi
fuente