Estoy ejecutando un par de regresiones y, como quería estar en el lado seguro, decidí usar errores estándar HAC (heteroscedasticidad y autocorrelación consistentes) en todo momento. Puede haber algunos casos en los que la correlación en serie no está presente. ¿Es de todos modos un enfoque válido? ¿Hay algún inconveniente?
time-series
least-squares
standard-error
robust
robust-standard-error
Juliett Bravo
fuente
fuente
Respuestas:
En términos generales, al estimar los errores estándar:
Si tiene suficientes datos, debe estar completamente seguro ya que el estimador es consistente.
Sin embargo, como Woolridge señala en su libro Introductory Econometrics (p.247 6th edition), un gran inconveniente puede provenir de pequeños problemas de muestra, que puede estar eliminando efectivamente una suposición (es decir, sin correlación serial de errores) pero agregando otra suposición de que tiene ¡suficientes datos para que entre en vigor el Teorema del límite central! HAC, etc ... confían en argumentos asintóticos.
Si tiene muy pocos datos para confiar en resultados asintóticos:
Vea esta respuesta aquí a una pregunta relacionada: https://stats.stackexchange.com/a/5626/97925
fuente
De hecho, debería haber alguna pérdida de eficiencia en muestras finitas, pero asintóticamente, usted está en el lado seguro. Para ver esto, considere el caso simple de estimar una media muestral (que es un caso especial de una regresión en la que solo retrocede en una constante):
Los estimadores HAC estiman el error estándar de la media muestral. Suponga que es una covarianza estacionaria con y tal que .Yt mi(Yt) = μ Co v (Yt,Yt - j) =γj ∑∞j = 0El |γjEl | <∞
Entonces, lo que estiman los errores estándar de HAC es la raíz cuadrada de la "varianza a largo plazo", dada por: Ahora, si la serie en realidad no tiene correlación serial, entonces para , que el estimador HAC también "descubrirá" como , de modo que se reducirá a un estimador de la raíz cuadrada de la varianza estándar .
fuente