Prueba de que los coeficientes en un modelo OLS siguen una distribución t con (nk) grados de libertad

29

Fondo

Supongamos que tenemos un modelo de mínimos cuadrados ordinarios donde tenemos coeficientes en nuestro modelo de regresión, k

y=Xβ+ϵ

donde es un vector de coeficientes , es la matriz de diseño definida porβ(k×1)X

X=(1x11x12x1(k1)1x211xn1xn(k1))
y los errores son IID normal,
ϵN(0,σ2I).

Minimizamos la suma de los errores al cuadrado al establecer nuestras estimaciones para en β

β^=(XTX)1XTy.

Un estimador imparcial de es donde \ mathbf {\ hat {y}} \ equiv \ mathbf {X} \ mathbf {\ hat {\ beta}} ( ref ).σ2

s2=yy^2np
y^Xβ^

La covarianza de β^ viene dada por

Cov(β^)=σ2C
donde C(XTX)1 ( ref ).

Pregunta

¿Cómo puedo probar que para β^i ,

β^iβisβ^itnk
donde tnk es un Distribución t con (nk) grados de libertad, y el error estándar de β^i se estima mediante sβ^i=scii .

Mis intentos

Sé que para variables aleatorias muestreadas de , puede mostrar que reescribiendo el LHS como y darse cuenta de que el numertor es una distribución normal estándar, y el denominador es la raíz cuadrada de una distribución Chi-cuadrado con df = (n-1) y dividido por (n- 1) ( ref .) Y, por lo tanto, sigue una distribución t con df = (n-1) ( ref ).nxN(μ,σ2)

x¯μs/ntn1
(x¯μσ/n)s2/σ2

No pude extender esta prueba a mi pregunta ...

¿Algunas ideas? Soy consciente de esta pregunta , pero no lo prueban explícitamente, solo dan una regla general, diciendo que "cada predictor le cuesta un grado de libertad".

Garrett
fuente
Como es una combinación lineal de variables normales conjuntas, tiene una distribución Normal. Por lo tanto, todo lo que necesita hacer es (1) establecer que ; (2) muestra que es un estimador imparcial de ; y (3) demostrar los grados de libertad en es . Este último ha sido probado en este sitio en varios lugares, como stats.stackexchange.com/a/16931 . Sospecho que ya sabes cómo hacer (1) y (2). β^iE(β^i)=βisβ^i2Var(β^i)sβ^ink
whuber

Respuestas:

32

Desde sabemos que y así sabemos que para cada componente de , donde es el elemento diagonal de . Por lo tanto, sabemos que

β^=(XTX)1XTY=(XTX)1XT(Xβ+ε)=β+(XTX)1XTε
β^βN(0,σ2(XTX)1)
kβ^
β^kβkN(0,σ2Skk)
Skkkth(XTX)1
zk=β^kβkσ2SkkN(0,1).

Tome nota de la declaración del Teorema para la distribución de una forma cuadrática idempotente en un vector normal estándar (Teorema B.8 en Greene):

Si y es simétrica y idempotente, entonces se distribuye donde es el rango de .xN(0,I)AxTAxχν2νA

Deje que denote el vector residual de regresión y deje que que es la matriz del fabricante residual (es decir, ) . Es fácil verificar que es simétrica e idempotente .ε^

M=InX(XTX)1XT,
My=ε^M

Sea un estimador de .

s2=ε^Tε^np
σ2

Entonces necesitamos hacer algo de álgebra lineal. Tenga en cuenta estas tres propiedades de álgebra lineal:

  • El rango de una matriz idempotente es su rastro.
  • Tr(A1+A2)=Tr(A1)+Tr(A2)
  • Tr(A1A2)=Tr(A2A1) si se y es ( esta propiedad es fundamental para la continuación del trabajo )A1n1×n2A2n2×n1

Entonces

rank(M)=Tr(M)=Tr(InX(XTX)1XT)=Tr(In)Tr(X(XTX)1XT))=Tr(In)Tr((XTX)1XTX))=Tr(In)Tr(Ip)=np

Entonces

V=(np)s2σ2=ε^Tε^σ2=(εσ)TM(εσ).

Aplicando el teorema para la distribución de una forma cuadrática idempotente en un vector normal estándar (mencionado anteriormente), sabemos que .Vχnp2

Como supuso que se distribuye normalmente, entonces es independiente de , y dado que es una función de , entonces también es independiente de . Por lo tanto, y son independientes entre sí.εβ^ε^s2ε^s2β^zkV

Entonces, es la relación de una distribución Normal estándar con la raíz cuadrada de una distribución Chi-cuadrado con los mismos grados de libertad (es decir, ), que es una caracterización de la distribución . Por lo tanto, la estadística tiene una distribución con grados de libertad.

tk=zkV/(np)
npttktnp

Entonces puede ser manipulado algebraicamente en una forma más familiar.

tk=β^kβkσ2Skk(np)s2σ2/(np)=β^kβkSkks2=β^kβks2Skk=β^kβkse(β^k)
Marcador azul
fuente
También una pregunta secundaria: para el Theorem for the Distribution of an Idempotent Quadratic Form in a Standard Normal Vector, ¿no necesitamos también que sea ​​simétrica? Desafortunadamente, no tengo Greene, así que no puedo ver la prueba, aunque vi que Wikipedia tenía la misma forma que tú . Sin embargo, un contraejemplo parece ser la matriz idempotente que conduce a que no es Chi-Squared ya que podría tomar valores negativos. ..AA=(1100)x12+x1x2
Garrett
1
@Garrett Mis disculpas, debe ser simétrico e idempotente. Se proporciona una prueba como Teorema 3 en este documento: www2.econ.iastate.edu/classes/econ671/hallam/documents/… Afortunadamente, es simétrico e idempotente. AM
Marcador azul
1
A es simplemente una representación matricial de una forma cuadrática. Cada forma cuadrática tiene una representación simétrica, por lo que el requisito de simetría de está implícito en la declaración del teorema. (Las personas no usan matrices asimétricas para representar formas cuadráticas.) Por lo tanto, la forma cuadrática está representada de manera única por la matriz que no es idempotente. A(x1,x2)x12+x1x2A=(11/21/20)
whuber
1
¿Por qué implica que es independiente de ? No del todo siguiendo allí. ϵN(0,σ2)β^ϵ^
Glassjawed
1
@Glassjawed Dado que tanto como son multivariados normalmente distribuidos, entonces la falta de correlación implica independencia. Uso de expresiones y de arriba, podemos mostrar que . β^ε^β^=β+(XX)1Xεε^=MεCov(β^,ε^)=0p×n
rzch