¿Puede alguien explicarme brevemente por qué se necesitan cada uno de los seis supuestos para calcular el estimador de MCO? Solo encontré la multicolinealidad: si existe, no podemos invertir la matriz (X'X) y, a su vez, estimar el estimador general. ¿Qué pasa con los otros (por ejemplo, linealidad, cero errores medios, etc.)?
14
Respuestas:
Siempre puede calcular el estimador OLS, aparte del caso cuando tiene una multicolinealidad perfecta. En este caso, tiene una dependencia multilineal perfecta en su matriz X. En consecuencia, la suposición de rango completo no se cumple y no puede calcular el estimador OLS, debido a problemas de invertibilidad.
Técnicamente, no necesita los otros supuestos de OLS para calcular el estimador de OLS. Sin embargo, de acuerdo con el teorema de Gauss-Markov, debe cumplir con el supuesto OLS (supuestos clrm) para que su estimador sea AZUL.
Puede encontrar una extensa discusión sobre el teorema de Gauss-Markov y su derivación matemática aquí:
http://economictheoryblog.com/2015/02/26/markov_theorem/
Además, si está buscando una descripción general del supuesto de OLS, es decir, cuántos hay, qué requieren y qué sucede si viola el supuesto de OLS único, puede encontrar una discusión elaborada aquí:
http://economictheoryblog.com/2015/04/01/ols_assumptions/
Espero que ayude, ¡salud!
fuente
Lo siguiente se basa en secciones transversales simples, para series de tiempo y paneles es algo diferente.
Ahora para las implicaciones.
Bajo 1 - 6 (los supuestos del modelo lineal clásico) OLS es AZUL (mejor estimador lineal imparcial), mejor en el sentido de la varianza más baja. También es eficiente entre todos los estimadores lineales, así como todos los estimadores que utilizan alguna función de la x. Más importante aún bajo 1 - 6, OLS es también el estimador imparcial de varianza mínima. Eso significa que entre todos los estimadores insesgados (no solo los lineales) OLS tiene la varianza más pequeña. OLS también es consistente.
Bajo 1 - 5 (los supuestos de Gauss-Markov) OLS es AZUL y eficiente (como se describió anteriormente).
Bajo 1 - 4, OLS es imparcial y consistente.
En realidad, OLS también es consistente, bajo un supuesto más débil que saber, que: ( 1 ) E ( u ) = 0 y ( 2 ) C o v ( x j , u ) = 0 . La diferencia con los supuestos 4 es que, bajo este supuesto, no es necesario establecer la relación funcional a la perfección.(4) (1) E(u)=0 (2) Cov(xj,u)=0
fuente
Un comentario en otra pregunta planteó dudas sobre la importancia de la condición , argumentando que se puede corregir mediante la inclusión de un término constante en la especificación de regresión, por lo que "se puede ignorar fácilmente".E(u∣X)=0
Esto no es asi. La inclusión de un término constante en la regresión absorberá la media condicional posiblemente distinta de cero del término de error si suponemos que esta media condicional ya es una constante y no una función de los regresores . Esta es la suposición crucial que debe hacerse independientemente de si incluimos un término constante o no:
Si esto se cumple, entonces la media distinta de cero se convierte en una molestia que simplemente podemos resolver al incluir un término constante.
Pero si esto no se cumple (es decir, si la media condicional no es una constante cero o no constante ), la inclusión del término constante no resuelve el problema: lo que "absorberá" en este caso es una magnitud eso depende de la muestra específica y las realizaciones de los regresores. En realidad, el coeficiente desconocido asociado a la serie de unos, no es realmente una constante sino variable, dependiendo de los regresores a través de la media condicional no constante del término de error.
¿Qué implica esto? Para simplificar, suponga el caso más simple, donde ( i indexa las observaciones) pero que E ( u i ∣ x i ) = h ( x i ) . Es decir, que el término de error es media-independiente de las variables explicativas, excepto de los de informes contemporáneas (en X nosotros no incluimos una serie de unos).E(ui∣X−i)=0 i E(ui∣xi)=h(xi) X
Suponga que especificamos la regresión con la inclusión de un término constante (un regresor de una serie de unos).
y notación compactadora
donde , Z = [ 1 : X ] , γ = ( un , ß ) ' , ε = u - una .a=(a,a,a...)′ Z=[1:X] γ=(a,β)′ ε=u−a
Entonces el estimador OLS será
Para la imparcialidad necesitamos . PeroE[ε∣Z]=0
que no puede ser cero para todo , ya que examinamos el caso donde h ( x i ) no es una función constante. Entoncesi h(xi)
y
In other words, "finite-sample" properties are all gone.
We are left only with the option to resort to asymptotically valid inference, for which we will have to make additional assumptions.
So simply put, Strict Exogeneity cannot be "easily ignored".
fuente