Diferencia entre error estándar y desviación estándar

96

Me cuesta entender la diferencia entre el error estándar y la desviación estándar. ¿Cómo son diferentes y por qué necesita medir el error estándar?

louis xie
fuente
77
Un comentario rápido, no una respuesta, ya que dos útiles ya están presentes: la desviación estándar es una propiedad de la (distribución de) las variables aleatorias. El error estándar está relacionado con una medición en una muestra específica. Los dos pueden confundirse al difuminar la distinción entre el universo y su muestra.
Francesco
Posiblemente de interés: stats.stackexchange.com/questions/15505/…
Macro

Respuestas:

31

Para completar la respuesta a la pregunta, Ocram abordó amablemente el error estándar, pero no lo comparó con la desviación estándar y no mencionó la dependencia del tamaño de la muestra. Como un caso especial para el estimador, considere la media muestral. El error estándar para la media es donde σσ/nσes la desviación estándar de la población. Entonces, en este ejemplo, vemos explícitamente cómo el error estándar disminuye al aumentar el tamaño de la muestra. La desviación estándar se usa con mayor frecuencia para referirse a las observaciones individuales. Entonces, la desviación estándar describe la variabilidad de las observaciones individuales, mientras que el error estándar muestra la variabilidad del estimador. Los buenos estimadores son consistentes, lo que significa que convergen al valor del parámetro verdadero. Cuando su error estándar disminuye a 0 a medida que aumenta el tamaño de la muestra, los estimadores son consistentes, lo que en la mayoría de los casos ocurre porque el error estándar va a 0 como vemos explícitamente con la media de la muestra.

Michael Chernick
fuente
3
Re: "... consistente, lo que significa que su error estándar disminuye a 0", eso no es cierto. ¿Recuerdas esta discusión: stats.stackexchange.com/questions/31036/… ?
Macro
1
Sí, por supuesto, recuerdo la discusión de las excepciones inusuales y estaba pensando en eso cuando respondí la pregunta. Pero la pregunta era acerca de los errores estándar y, en términos simplistas, las buenas estimaciones de los parámetros son consistentes y sus errores estándar tienden a 0 como en el caso de la media muestral.
Michael Chernick
44
Estoy de acuerdo con su comentario: el error estándar de la media de la muestra va a 0 y la media de la muestra es consistente. Pero su error estándar al llegar a cero no es una consecuencia (o equivalente) del hecho de que sea consistente, que es lo que dice su respuesta.
Macro
3
@Macro sí, la respuesta podría mejorarse, lo que decidí hacer. Creo que es importante no ser demasiado técnico con los OP ya que calificar todo puede ser complicado y confuso. Pero la precisión técnica no debe sacrificarse por simplicidad. Así que creo que la forma en que abordé esto en mi edición es la mejor manera de hacerlo.
Michael Chernick
99
Estoy de acuerdo en que es importante no ser técnico a menos que sea absolutamente necesario. Mi único comentario fue que, una vez que haya elegido introducir el concepto de consistencia (un concepto técnico), no tiene sentido caracterizarlo mal en nombre de hacer que la respuesta sea más fácil de entender. Sin embargo, creo que su edición aborda mis comentarios.
Macro
51

Aquí hay una respuesta más práctica (y no matemática):

  • La SD (desviación estándar) cuantifica la dispersión: cuánto varían los valores entre sí.
  • El SEM (error estándar de la media) cuantifica con qué precisión conoce la media real de la población. Tiene en cuenta tanto el valor de la SD como el tamaño de la muestra.
  • Tanto SD como SEM están en las mismas unidades: las unidades de los datos.
  • El SEM, por definición, siempre es más pequeño que el SD.
  • El SEM se hace más pequeño a medida que sus muestras se hacen más grandes. Esto tiene sentido, porque es probable que la media de una muestra grande esté más cerca de la media real de la población que la media de una muestra pequeña. Con una muestra enorme, conocerá el valor de la media con mucha precisión incluso si los datos están muy dispersos.
  • La SD no cambia de manera predecible a medida que adquiere más datos. La SD que calcula a partir de una muestra es la mejor estimación posible de la SD de la población general. A medida que recopile más datos, evaluará la SD de la población con más precisión. Pero no puede predecir si la SD de una muestra más grande será más grande o más pequeña que la SD de una muestra pequeña. (Esto es una simplificación, no del todo cierto. Vea los comentarios a continuación).

Tenga en cuenta que los errores estándar se pueden calcular para casi cualquier parámetro que calcule a partir de los datos, no solo la media. La frase "el error estándar" es un poco ambigua. Los puntos anteriores se refieren solo al error estándar de la media.

(De la Guía de estadísticas de GraphPad que escribí).

Harvey Motulsky
fuente
11
+1 Para consejos claros y útiles. Pero algunas aclaraciones están en orden, de las cuales la más importante va a la última viñeta: me gustaría desafiarte a un juego de predicción SD. Observamos la SD de iid muestras de, por ejemplo, una distribución Normal. Me voy a predecir si el SD va a ser más alta o más baja después de otros muestras, digo. Me pagas un dólar si estoy en lo correcto, de lo contrario te pago un dólar. (Con el juego correcto, ¡lo invito a que lo descubras! La expectativa de este juego es positiva para mí, llegando a alrededor de dólares cuando )100 n .18 n = 2n100n.18n=2
whuber
44
@whuber: Por supuesto que tienes razón. Es la varianza (SD al cuadrado) que no cambiará de manera predecible a medida que agregue más datos. La SD aumentará un poco a medida que aumente el tamaño de la muestra, especialmente cuando comience con muestras pequeñas. Este cambio es pequeño en comparación con el cambio en el SEM a medida que cambia el tamaño de la muestra.
Harvey Motulsky
@ HarveyMotulsky: ¿Por qué aumenta el SD?
Andrew
Con muestras grandes, la varianza de la muestra estará bastante cerca de la varianza de la población, por lo que la muestra SD estará cerca de la población SD. Con muestras más pequeñas, la varianza de la muestra será igual a la varianza de la población en promedio, pero las discrepancias serán mayores. Si son simétricas como variaciones, serán asimétricas como SD. Ejemplo: la varianza de la población es 100. Dos varianzas de muestra son 80 o 120 (simétricas). La muestra SD debería ser 10, pero será 8.94 o 10.95. SD de muestra promedio de una distribución simétrica alrededor de la varianza de la población, y la SD media será baja, con bajo N.
Harvey Motulsky
43

θx={x1,,xn}θθ^(x)θ^(x)xx~θ^(x~)θ^(x)θ^θ^(x)θ^

ocram
fuente
1
¿Es el error estándar de estimación igual a la desviación estándar de la variable estimada?
Yurii
6

(tenga en cuenta que me estoy centrando en el error estándar de la media, que creo que el interrogador también lo hizo, pero puede generar un error estándar para cualquier estadística de muestra)

El error estándar está relacionado con la desviación estándar, pero no son lo mismo y aumentar el tamaño de la muestra no los acerca más. Más bien, los separa más. La desviación estándar de la muestra se acerca a la desviación estándar de la población a medida que aumenta el tamaño de la muestra, pero no el error estándar.

A veces, la terminología en torno a esto es un poco difícil de entender.

Cuando reúne una muestra y calcula la desviación estándar de esa muestra, a medida que la muestra crece en tamaño, la estimación de la desviación estándar se vuelve más y más precisa. Parece de su pregunta que era lo que estaba pensando. Pero también considere que la media de la muestra tiende a estar más cerca de la media de la población en promedio. Eso es crítico para entender el error estándar.

El error estándar es sobre lo que sucedería si obtuvieras múltiples muestras de un tamaño determinado. Si toma una muestra de 10, puede obtener una estimación de la media. Luego, toma otra muestra de 10 y una nueva estimación media, y así sucesivamente. La desviación estándar de las medias de esas muestras es el error estándar. Dado que planteó su pregunta, probablemente pueda ver ahora que si la N es alta, entonces el error estándar es menor porque es menos probable que las medias de las muestras se desvíen mucho del valor real.

Para algunos, eso suena un poco milagroso dado que has calculado esto a partir de una muestra. Entonces, lo que podría hacer es iniciar un error estándar a través de la simulación para demostrar la relación. En R eso se vería así:

# the size of a sample
n <- 10
# set true mean and standard deviation values
m <- 50
s <- 100

# now generate lots and lots of samples with mean m and standard deviation s
# and get the means of those samples. Save them in y.
y <- replicate( 10000, mean( rnorm(n, m, s) ) )
# standard deviation of those means
sd(y)
# calcuation of theoretical standard error
s / sqrt(n)

Encontrará que esos dos últimos comandos generan el mismo número (aproximadamente). Puede variar los valores n, m y s y siempre saldrán bastante cerca uno del otro.

John
fuente
Encontré esto realmente útil, gracias por publicar. ¿Sería justo entonces describir el error estándar como "la desviación estándar de la distribución de muestreo"? ¿La distribución de muestreo es y en su bloque de código anterior? Esto es lo que me confundió, al combinar los parámetros de muestra sd y media con los parámetros de distribución de muestreo.
Doug Fir
1
Si cambia su redacción para especificar medias de muestra para este caso, sí.
John