Para la estimación normalidad no es exactamente una suposición, pero una consideración importante sería la eficiencia; en muchos casos un buen estimador lineal funcionará bien y en ese caso (por Gauss-Markov) la estimación de LS sería la mejor de esas cosas que estarían bien. (Si sus colas son bastante pesadas o muy livianas, puede tener sentido considerar otra cosa)
En el caso de las pruebas y los IC, aunque se asume la normalidad, generalmente no es tan crítico (de nuevo, siempre y cuando las colas no sean realmente pesadas o livianas, o tal vez una de cada una), en eso, al menos no muy muestras pequeñas, las pruebas y los IC típicos tienden a tener cerca de sus propiedades nominales (no muy lejos del nivel de significación o cobertura reclamados) y funcionan bien (potencia razonable para situaciones típicas o IC no mucho más amplios que las alternativas), a medida que avanza más allá del caso normal, la potencia puede ser un problema mayor, y en ese caso, las muestras grandes generalmente no mejorarán la eficiencia relativa, por lo que cuando los tamaños del efecto son tales que la potencia es mediana en una prueba con una potencia relativamente buena, puede ser muy pobre para las pruebas que suponen normalidad.
Esta tendencia a tener propiedades cercanas a las nominales para los IC y los niveles de significancia en las pruebas se debe a varios factores que operan juntos (uno de los cuales es la tendencia de las combinaciones lineales de variables a tener una distribución cercana a la normal siempre que haya muchos valores involucrados y ninguno de ellos aporta una gran fracción de la varianza total).
Sin embargo, en el caso de un intervalo de predicción basado en el supuesto normal, la normalidad es relativamente más crítica, ya que el ancho del intervalo depende en gran medida de la distribución de un solo valor. Sin embargo, incluso allí, para el tamaño de intervalo más común (intervalo de 95%), el hecho de que muchas distribuciones unimodales tengan muy cerca del 95% de su distribución dentro de aproximadamente 2 segundos de la media tiende a dar como resultado un rendimiento razonable de un intervalo de predicción normal incluso cuando la distribución no es normal. [Sin embargo, esto no se lleva tan bien a intervalos mucho más estrechos o más amplios, digamos un intervalo del 50% o un intervalo del 99.9%.]
2: Al predecir puntos de datos individuales, el intervalo de confianza alrededor de esa predicción supone que los residuos se distribuyen normalmente.
Esto no es muy diferente de la suposición general sobre los intervalos de confianza: para ser válidos, debemos comprender la distribución, y la suposición más común es la normalidad. Por ejemplo, un intervalo de confianza estándar alrededor de una media funciona porque la distribución de las medias muestrales se acerca a la normalidad, por lo que podemos usar la distribución az o t
fuente