Las consecuencias de la heteroscedasticidad son:
El mínimos cuadrados ordinarios (OLS) estimador b = ( X ' X ) X ' y es todavía coherente pero ya no es eficiente .b^=(X′X)X′y
Var^(b)=(X′X)−1σ^2σ^2=1n−ke′eb^
El punto (1) puede no ser un problema importante; la gente a menudo usa el estimador OLS ordinario de todos modos. Pero el punto (2) debe ser abordado. ¿Qué hacer?
b
Var^(b)=1n(X′Xn)−1S(X′Xn)−1
SS=1n−k∑i(xiei)(xiei)′
Esto da errores estándar consistentes a la heterocedasticidad. También se conocen como errores estándar de Huber-White, errores estándar robustos, estimador "sandwich", etc. Cualquier paquete de estadísticas estándar básico tiene una opción para errores estándar robustos. Úsalo!
Algunos comentarios adicionales (actualización)
Si la heterocedasticidad es lo suficientemente grande, la estimación regular de MCO puede tener grandes problemas prácticos. Si bien sigue siendo un estimador consistente, es posible que tenga pequeños problemas de muestra en los que toda su estimación se debe a unas pocas observaciones de alta varianza. (Esto es a lo que @ seanv507 alude en los comentarios). El estimador OLS es ineficiente porque da más peso a las observaciones de alta varianza que lo óptimo. La estimación puede ser extremadamente ruidosa.
Un problema al tratar de corregir la ineficiencia es que probablemente tampoco conozca la matriz de covarianza para los términos de error, por lo tanto, usar algo como GLS puede empeorar las cosas si su estimación de la matriz de covarianza del término de error es basura.
Además, los errores estándar de Huber-White que doy arriba pueden tener grandes problemas en muestras pequeñas. Hay una larga literatura sobre este tema. P.ej. ver Imbens y Kolesar (2016), "Errores estándar robustos en muestras pequeñas: algunos consejos prácticos".
Dirección para estudios posteriores:
Si esto es autoestudio, lo siguiente práctico a considerar son los errores estándar agrupados. Estos corrigen la correlación arbitraria dentro de los clústeres.
Bueno, la respuesta corta es básicamente que su modelo es incorrecto, es decir
Entonces, en caso de heterocedasticidad, ocurren problemas con la estimación de la matriz de varianza-covarianza, lo que conduce a errores estándar incorrectos de los coeficientes, lo que a su vez conduce a estadísticas t y valores p incorrectos. En pocas palabras, si sus términos de error no tienen una varianza constante, los mínimos cuadrados ordinarios no son la forma más eficiente de estimación. Echa un vistazo a esta pregunta relacionada.
fuente
La "heterocedasticidad" dificulta la estimación de la verdadera desviación estándar de los errores de pronóstico. Esto puede conducir a intervalos de confianza que son demasiado amplios o demasiado estrechos (en particular, serán demasiado estrechos para las predicciones fuera de la muestra, si la varianza de los errores aumenta con el tiempo).
Además, el modelo de regresión puede centrarse demasiado en un subconjunto de datos.
Buena referencia: Supuestos de prueba de regresión lineal
fuente