"En presencia de heterocedasticidad, los estimadores OLS son imparciales pero ineficientes"
Mostrando el imparcial La parte es relativamente fácil. Algunos autores han explicado la ineficacia Con la ayuda de la nueva varianza del estimador de mínimos cuadrados. Sin embargo, se me pidió que mostrara lo mismo utilizando la varianza del estimador de mínimos cuadrados ponderados ($ \ hat {\ beta ^ *} $). He procedido de la siguiente manera:
Considere el modelo, $ Y_t = \ alpha + \ beta X_t + u_t $ donde $ u_t $ 's son heteroscedásticos.
Supongamos que $ {\ sigma _u} ^ 2 $ sea la variación constante de $ u_t $ 's bajo el supuesto homoscedásico.
Sea $ Var (u_t) = {\ sigma _t} ^ 2 $ la varianza de las perturbaciones bajo el supuesto heteroscedástico.
En particular, suponga que $ {\ sigma _t} ^ 2 = k_t {\ sigma _u} ^ 2 $, $ k_t $ 's siendo algunos pesos constantes no estocásticos.
Ahora, considere el modelo anterior en forma de desviación
$ y_t = \ beta x_t + u_t $, donde $ y_t = Y_t-E (Y) $, $ x_t = X_t-E (X) $
$ \ Rightarrow \ frac {y_t} {k_t} = \ beta \ frac {x_t} {k_t} + \ frac {u_t} {k_t} $
$ \ Rightarrow \ frac {y_t} {k_t} = \ beta \ frac {x_t} {k_t} + v_t $
donde $ v_t $ tiene variación constante $ {\ sigma _u} ^ 2 $
Ahora, el estimador de mínimos cuadrados ponderados es $ \ hat {\ beta ^ *} = \ frac {\ sum \ frac {y_t} {k_t} \ frac {x_t} {k_t}} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2}} $
que finalmente nos daría $ Var (\ hat {\ beta ^ *}) = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2}} $
Ahora, bajo el supuesto heteroscedásico, tenemos $ Var (\ hat {\ beta}) = \ frac {\ sum {x_t} ^ 2 {\ sigma_t} ^ 2} {(\ sum {x_t} ^ 2) ^ 2} PS
Ahora, $$ \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t } ^ 2} {{k_t} ^ 2}} \ times \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum {x_t} ^ 2 {\ sigma_t} ^ 2} $$
$$ \ Rightarrow \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {{\ sigma _u} ^ 2} {\ sum \ frac {{x_t } ^ 2} {{k_t} ^ 2}} \ times \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum {x_t} ^ 2 {k_t \ sigma_u} ^ 2} $$
$$ \ Rightarrow \ frac {Var (\ hat {\ beta ^ *})} {Var (\ hat {\ beta})} = \ frac {(\ sum {x_t} ^ 2) ^ 2} {\ sum \ frac {{x_t} ^ 2} {{k_t} ^ 2} \ sum {x_t} ^ 2 {k_t}} $$
Sin embargo, antes de seguir adelante, mi instructor me pidió que lo comprobara de nuevo. Insistía en que debería obtener algo como $ \ frac {\ sum (a_t b_t) ^ 2} {\ sum {a_t} ^ 2 {b_t} ^ 2} $, para que pueda usar la desigualdad de Cauchy-Schwartz que resulta en $ Var (\ hat {\ beta ^ *}) & lt; Var (\ hat {\ beta}) $. Esto eventualmente probaría la * ineficiencia * parte.
Como no estoy recibiendo esa forma, creo que he cometido errores. Sería feliz si alguien puede señalarlo.
fuente
Respuestas:
Sea $ \ hat {\ beta} $ el estimador OLS de $ \ beta $ en $$ y_t = \ beta x_t + u_t $$ Sea $ \ tilde {\ beta} $ el estimador OLS de $ \ beta $ en $$ \ dfrac {y_t} {\ sqrt {k_t}} = \ beta \ dfrac {x_t} {\ sqrt {k_t}} + \ dfrac {u_t} {\ sqrt {k_t}} $$ $ \ text {Var} (\ hat {\ beta}) = \ dfrac {\ sum x_t ^ 2 \ sigma_t ^ 2} {\ left (\ sum x_t ^ 2 \ right) ^ {2}} $
$ \ text {Var} (\ tilde {\ beta}) = \ dfrac {\ sigma ^ 2_u} {\ sum \ dfrac {x_t ^ 2} {k_t}} $
Entonces, $ \ dfrac {\ text {Var} (\ tilde {\ beta})} {\ text {Var} (\ hat {\ beta})} = \ dfrac {\ left (\ sum x_t ^ 2 \ right) ^ {2}} {\ sum \ dfrac {x_t ^ 2} {k_t} \ sum {x_t ^ 2} {k_t}} $.
Dejemos $ a_t = \ dfrac {x_t} {\ sqrt {k_t}} $ y $ b_t = {x_t} {\ sqrt {k_t}} $, y podemos reescribir la relación de variaciones como
$ \ dfrac {\ text {Var} (\ tilde {\ beta})} {\ text {Var} (\ hat {\ beta})} = \ dfrac {\ left (\ sum a_tb_t \ right) ^ {2} } {\ sum a_t ^ 2 \ sum {b_t ^ 2}} \ leq 1 $ [Por desigualdad de Cauchy-Schwarz]
fuente