Heteroscedasticidad y estimador de mínimos cuadrados ponderados

3

"En presencia de heterocedasticidad, los estimadores OLS son imparciales pero ineficientes"

Mostrando el imparcial La parte es relativamente fácil. Algunos autores han explicado la ineficacia Con la ayuda de la nueva varianza del estimador de mínimos cuadrados. Sin embargo, se me pidió que mostrara lo mismo utilizando la varianza del estimador de mínimos cuadrados ponderados ($ \ hat {\ beta ^ *} $). He procedido de la siguiente manera:

Considere el modelo, $ Y_t = \ alpha + \ beta X_t + u_t $ donde $ u_t $ 's son heteroscedásticos.

Supongamos que $ {\ sigma _u} ^ 2 $ sea la variación constante de $ u_t $ 's bajo el supuesto homoscedásico.

Sea $ Var (u_t) = {\ sigma _t} ^ 2 $ la varianza de las perturbaciones bajo el supuesto heteroscedástico.

En particular, suponga que $ {\ sigma _t} ^ 2 = k_t {\ sigma _u} ^ 2 $, $ k_t $ 's siendo algunos pesos constantes no estocásticos.

Ahora, considere el modelo anterior en forma de desviación

$ y_t = \ beta x_t + u_t $, donde $ y_t = Y_t-E (Y) $, $ x_t = X_t-E (X) $

$ \ Rightarrow \ frac {y_t} {k_t} = \ beta \ frac {x_t} {k_t} + \ frac {u_t} {k_t} $

$ \ Rightarrow \ frac {y_t} {k_t} = \ beta \ frac {x_t} {k_t} + v_t $
donde $ v_t $ tiene variación constante $ {\ sigma _u} ^ 2 $

Ahora, el estimador de mínimos cuadrados ponderados es $ \ hat {\ beta ^ *} = \ frac {\ sum \ frac {y_t} {k_t} \ frac {x_t} {k_t}} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2}} $

que finalmente nos daría $ Var (\ hat {\ beta ^ *}) = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2}} $

Ahora, bajo el supuesto heteroscedásico, tenemos $ Var (\ hat {\ beta}) = \ frac {\ sum {x_t} ^ 2 {\ sigma_t} ^ 2} {(\ sum {x_t} ^ 2) ^ 2} PS

Ahora, $$ \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t } ^ 2} {{k_t} ^ 2}} \ times \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum {x_t} ^ 2 {\ sigma_t} ^ 2} $$
$$ \ Rightarrow \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t } ^ 2} {{k_t} ^ 2}} \ times \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum {x_t} ^ 2 {k_t \ sigma_u} ^ 2} $$
$$ \ Rightarrow \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2} \ sum {x_t} ^ 2 {k_t}} $$

Sin embargo, antes de seguir adelante, mi instructor me pidió que lo comprobara de nuevo. Insistía en que debería obtener algo como $ \ frac {\ sum (a_t b_t) ^ 2} {\ sum {a_t} ^ 2 {b_t} ^ 2} $, para que pueda usar la desigualdad de Cauchy-Schwartz que resulta en $ Var (\ hat {\ beta ^ *}) & lt; Var (\ hat {\ beta}) $. Esto eventualmente probaría la * ineficiencia * parte.

Como no estoy recibiendo esa forma, creo que he cometido errores. Sería feliz si alguien puede señalarlo.

user 440191
fuente
1
Divide entre $ \ sqrt {k_t} $ y no $ k_t $, $ \ dfrac {y_t} {\ sqrt {k_t}} = \ beta \ dfrac {y_t} {\ sqrt {k_t}} + \ dfrac {u_t} { \ sqrt {k_t}} $
Amit
Si dividimos por $ \ sqrt {k_t} $, $ \ frac {u_t} {\ sqrt {k_t}} $ no tendríamos variación constante.
user 440191
Dado que la variación de $ u_t $ es $ \ sigma_t ^ 2 = k_t \ sigma_u ^ 2 $, la variación de $ \ dfrac {u_t} {\ sqrt {k_t}} $ es $ \ sigma ^ 2_u $ y la variación de $ \ dfrac {u_t} {k_t} $ es $ \ dfrac {\ sigma ^ 2_u} {k_t} $
Amit
1
Eso es incorrecto $ \ text {Var} (cX) = c ^ 2 \ text {Var} (X) $.
Amit
Lo siento, me perdí ese punto. Estás en lo correcto. Ahora tendría una variación constante.
user 440191

Respuestas:

4

Sea $ \ hat {\ beta} $ el estimador OLS de $ \ beta $ en $$ y_t = \ beta x_t + u_t $$ Sea $ \ tilde {\ beta} $ el estimador OLS de $ \ beta $ en $$ \ dfrac {y_t} {\ sqrt {k_t}} = \ beta \ dfrac {x_t} {\ sqrt {k_t}} + \ dfrac {u_t} {\ sqrt {k_t}} $$ $ \ text {Var} (\ hat {\ beta}) = \ dfrac {\ sum x_t ^ 2 \ sigma_t ^ 2} {\ left (\ sum x_t ^ 2 \ right) ^ {2}} $

$ \ text {Var} (\ tilde {\ beta}) = \ dfrac {\ sigma ^ 2_u} {\ sum \ dfrac {x_t ^ 2} {k_t}} $

Entonces, $ \ dfrac {\ text {Var} (\ tilde {\ beta})} {\ text {Var} (\ hat {\ beta})} = \ dfrac {\ left (\ sum x_t ^ 2 \ right) ^ {2}} {\ sum \ dfrac {x_t ^ 2} {k_t} \ sum {x_t ^ 2} {k_t}} $.

Dejemos $ a_t = \ dfrac {x_t} {\ sqrt {k_t}} $ y $ b_t = {x_t} {\ sqrt {k_t}} $, y podemos reescribir la relación de variaciones como

$ \ dfrac {\ text {Var} (\ tilde {\ beta})} {\ text {Var} (\ hat {\ beta})} = \ dfrac {\ left (\ sum a_tb_t \ right) ^ {2} } {\ sum a_t ^ 2 \ sum {b_t ^ 2}} \ leq 1 $ [Por desigualdad de Cauchy-Schwarz]

Amit
fuente