¿Un ejemplo de un estimador consistente y sesgado?

13

Realmente perplejo en este caso. Realmente me gustaría un ejemplo o una situación en la que un estimador B sea a la vez consistente y sesgado.

Jimmy menea
fuente
3
Esto es para una clase?
Glen_b -Reinstate Monica
55
Creo que la especificación tardía de que está buscando un ejemplo de serie temporal transforma esto en una pregunta diferente, ya que invalidaría las excelentes respuestas ya proporcionadas. Pero esto está bien: puedes hacer una nueva pregunta.
Sycorax dice Reinstate Monica
66
Veo que has cambiado tu pregunta. Dado que varias respuestas ya abordaron su pregunta anterior, le aconsejo que la cambie y publique una nueva pregunta específicamente para los modelos de series temporales.
JohnK
3
Es sorprendente que aunque solicite un estimador relacionado con series de tiempo, nadie ha mencionado OLS para un AR (1). El estimador está sesgado, pero es consistente, y es bastante fácil de mostrar (y buscar en Google le dará mucho material sobre esto). Editar: parece que la solicitud de la serie temporal fue una adición tardía, lo que explicaría la falta de tales respuestas ...
hejseb
2
Aquí hay un ejemplo bastante trivial: , . ϵ0X¯n+ϵ/nϵ0
dsaxton

Respuestas:

23

El ejemplo más simple que se me ocurre es la varianza muestral que nos llega de forma intuitiva a la mayoría de nosotros, es decir, la suma de las desviaciones cuadradas divididas por lugar de :nn1

Sn2=1ni=1n(XiX¯)2

Es fácil mostrar que y, por lo tanto, el estimador está sesgado. Pero suponiendo una varianza finita , observe que el sesgo va a cero como porqueE(Sn2)=n1nσ2σ2n

E(Sn2)σ2=1nσ2

También se puede demostrar que la varianza del estimador tiende a cero y, por lo tanto, el estimador converge en media cuadrática . Por lo tanto, también es convergente en probabilidad .

JohnK
fuente
1
Este es un ejemplo útil, aunque puede aplicar una interpretación bastante débil de "sesgado" aquí (que se usa de manera algo ambigua en la pregunta misma). También se podría pedir algo más fuerte, por ejemplo, una secuencia de estimador que sea consistente, pero con un sesgo que no desaparezca ni siquiera asintóticamente.
cardenal
@cardinal El sesgo debe desaparecer asintóticamente para que el estimador sea consistente, ¿no?
JohnK
3
No (Vea la secuencia de comentarios para más detalles.)
cardenal
Creo que sería útil llamar a su estimador lugar de , ya que generalmente se refiere al estimador imparcial, mientras que menudo se refiere al MLE. S2S2 σ 2σ^2S2S2σ^2
Cliff AB
@CliffAB Sí, esto es lo que denota el índice , la suma de las desviaciones al cuadrado se divide por , en lugar de la convencional . n n - 1nnn1
JohnK
9

Un ejemplo simple sería estimar el parámetro dado iid observaciones .n y iUniforme [ 0 ,θ>0nyiUniform[0,θ]

Deja que . Para cualquier finito tenemos (por lo que el estimador está sesgado), pero en el límite será igual a con probabilidad uno (por lo que es consistente).θ^n=max{y1,,yn}nE[θn]<θθ

Adrian
fuente
6

Considere cualquier estimador imparcial y consistente y una secuencia converja a 1 ( no necesita ser aleatoria) y forme . Es parcial, pero consistente ya que converge a 1.TnαnαnαnTnαn

De wikipedia:

Hablando en términos generales, se dice que un estimador del parámetro es consistente, si converge en probabilidad al valor verdadero del parámetro: Tnθ

plimnTn=θ.

Ahora recuerde que el sesgo de un estimador se define como:

Biasθ[θ^]=Eθ[θ^]θ

El sesgo es de hecho distinto de cero, y la convergencia en la probabilidad sigue siendo cierta.

RUser4512
fuente
Agradezco la respuesta y explicación. Tengo una mejor comprensión ahora. Gracias
Jimmy Wiggles
Esta respuesta necesita una reparación menor al principio para dejar en claro que no servirá ninguna imparcial . La secuencia del estimador original en sí misma debe ser consistente. Tn
cardenal
2

En una configuración de series de tiempo con una variable dependiente retrasada incluida como un regresor, el estimador OLS será consistente pero sesgado. La razón de esto es que para mostrar la imparcialidad del estimador OLS necesitamos una exogeneidad estricta, , es decir, que el término de error, , en el período no está correlacionado con todos los regresores en todos los períodos de tiempo. Sin embargo, para mostrar la consistencia del estimador OLS solo necesitamos exogeneidad contemporánea, , es decir que el término de error, , en el período no está correlacionado con los regresores,E[εt|x1,x2,,,xT]εttE[εt|xt]εttxt en el período . Considere el modelo AR (1): con de ahora en adelante.tyt=ρyt1+εt,εtN(0,σε2)xt=yt1

Primero muestro que la exogeneidad estricta no se cumple en un modelo con una variable dependiente retrasada incluida como un regresor. Veamos la correlación entre yεtxt+1=yt

E[εtxt+1]=E[εtyt]=E[εt(ρyt1+εt)]

=ρE(εtyt1)+E(εt2)

=E(εt2)=σε2>0 (Eq.(1)).

Si suponemos una exogeneidad secuencial, , es decir que el término de error, , en el período no está correlacionado con todos los regresores en períodos de tiempo anteriores y el actual, entonces el primer término anterior, , desaparecerá. Lo que está claro desde arriba es que a menos que tengamos una exogeneidad estricta, la expectativa . Sin embargo, debe quedar claro que la exogeneidad contemporánea, , se mantiene.E[εty1,y2,,yt1]=0εttρE(εtyt1)E[εtxt+1]=E[εtyt]0E[εt|xt]

Ahora veamos el sesgo del estimador OLS al estimar el modelo AR (1) especificado anteriormente. El estimador OLS de , se da como:ρρ^

ρ^=1Tt=1Tytyt11Tt=1Tyt2=1Tt=1T(ρyt1+εt)yt11Tt=1Tyt2=ρ+1Tt=1Tεtyt11Tt=1Tyt2 (Eq.(2))

Luego tome la expectativa condicional en todos los valores anteriores, contemporáneos y futuros, , de la :E[εt|y1,y2,,,yT1]Eq.(2)

E[ρ^|y1,y2,,,yT1]=ρ+1Tt=1T[εt|y1,y2,,,yT1]yt11Tt=1Tyt2

Sin embargo, sabemos por la que tal que significa que y, por lo tanto, pero está sesgado:Eq.(1)E[εtyt]=E(εt2)[εt|y1,y2,,,yT1]01Tt=1T[εt|y1,y2,,,yT1]yt11Tt=1Tyt20E[ρ^|y1,y2,,,yT1]ρE[ρ^|y1,y2,,,yT1]=ρ+1Tt=1T[εt|y1,y2,,,yT1]yt11Tt=1Tyt2=ρ+1Tt=1TE(εt2)yt11Tt=1Tyt2=ρ+1Tt=1Tσε2yt11Tt=1Tyt2 .

Todo lo que supongo que muestra la consistencia del estimador OLS en el modelo AR (1) es exogeneidad contemporánea, que conduce a la condición de momento, con . Como antes, tenemos que el estimador OLS de , se da como:E[εt|xt]=E[εt|yt1]=0E[εtxt]=0xt=yt1ρρ^

ρ^=1Tt=1Tytyt11Tt=1Tyt2=1Tt=1T(ρyt1+εt)yt11Tt=1Tyt2=ρ+1Tt=1Tεtyt11Tt=1Tyt2

Ahora suponga que y es positivo y finito, .plim1Tt=1Tyt2=σy2σy20<σy2<

Entonces, como y mientras se aplique una ley de números grandes (LLN), tenemos que . Usando este resultado tenemos:Tplim1Tt=1Tεtyt1=E[εtyt1]=0

plimρ^T=ρ+plim1Tt=1Tεtyt1plim1Tt=1Tyt2=ρ+0σy2=ρ

De este modo, se ha demostrado que el estimador OLS de , en el modelo AR (1) está sesgado pero es consistente. Tenga en cuenta que este resultado es válido para todas las regresiones donde la variable dependiente rezagada se incluye como un regresor.pρ^

Plissken
fuente