Explicación intuitiva del término en la varianza del estimador de mínimos cuadrados

18

Si es rango completo, existe el inverso de y obtenemos la estimación de mínimos cuadrados: yX T X β = ( X T X ) - 1 X Y Var ( β ) = σ 2 ( X T X ) - 1XXTX

β^=(XTX)1XY
Var(β^)=σ2(XTX)1

¿Cómo podemos explicar intuitivamente en la fórmula de varianza? La técnica de derivación es clara para mí.(XTX)1

Daniel Yefimov
fuente
3
Es posible que desee agregar una nota para señalar que la fórmula que ha establecido para la matriz de varianza-covarianza de , suponiendo que OLS estima , es correcta solo si el se cumplen las condiciones del teorema de Gauss-Markov y, en particular, solo si la matriz de varianza-covarianza de los términos de error viene dada por , donde es la matriz de identidad y es el número de filas de (e ). La fórmula que ha proporcionado no es correcta para el caso más general de errores no esféricos. ß sigma2InInn×nnXYβ^β^σ2InInn×nnXY
Mico

Respuestas:

13

Considere una regresión simple sin un término constante, y donde el regresor único se centra en su media muestral. Entonces es ( veces) su varianza muestral y es recíproco. Entonces, cuanto mayor sea la varianza = variabilidad en el regresor, menor será la varianza del estimador de coeficientes: cuanta más variabilidad tengamos en la variable explicativa, más exactamente podremos estimar el coeficiente desconocido. n ( X X ) - 1XXn(XX)1

¿Por qué? Como cuanto más variable es un regresor, más información contiene. Cuando los regresores son muchos, esto se generaliza al inverso de su matriz de varianza-covarianza, que también tiene en cuenta la co-variabilidad de los regresores. En el caso extremo donde es diagonal, la precisión para cada coeficiente estimado depende solo de la varianza / variabilidad del regresor asociado (dada la varianza del término de error).XX

Alecos Papadopoulos
fuente
¿Podría relacionar este argumento con el hecho de que la inversa de la matriz de varianza-covarianza produce la correlación parcial ?
Heisenberg
5

Una manera simple de ver es como el análogo de matriz (multivariante) de , que es la varianza del coeficiente de pendiente en la regresión OLS simple. Incluso se puede obtener para esa variación omitiendo la intersección en el modelo, es decir, realizando una regresión a través del origen.σ 2σ2(XTX)1 σ2σ2i=1n(XiX¯)2σ2i=1nXi2

De cualquiera de estas fórmulas se puede ver que una mayor variabilidad de la variable predictora en general conducirá a una estimación más precisa de su coeficiente. Esta es la idea que a menudo se explota en el diseño de experimentos, donde al elegir valores para los predictores (no aleatorios), se trata de hacer el determinante de más grande posible, siendo el determinante una medida de variabilidad.(XTX)

JohnK
fuente
2

¿Ayuda la transformación lineal de la variable aleatoria gaussiana? Usando la regla de que si, , entonces A x + b N ( A μ + b , A T Σ A ) .xN(μ,Σ)Ax+b N(Aμ+b,ATΣA)

Suponiendo que es el modelo subyacente y ϵ N ( 0 , σ 2 ) .Y=Xβ+ϵϵN(0,σ2)

YN(Xβ,σ2)XTYN(XTXβ,Xσ2XT)(XTX)1XTYN[β,(XTX)1σ2]

Así que es una matriz de escalamiento complicado que transforma la distribución de . Y(XTX)1XTY

Espero que haya sido útil.

kedarps
fuente
Nada en la derivación del estimador OLS y su varianza requiere la normalidad de los términos de error. Todo lo que se requiere es y . (Por supuesto, se requiere normalidad para mostrar que OLS logra el límite inferior Cramer-Rao, pero eso no es de lo que se trata la publicación del OP, ¿verdad?)E ( ε ε T ) = σ 2 I nE(ε)=0E(εεT)=σ2In
Mico
2

Adoptaré un enfoque diferente para desarrollar la intuición que subyace a la fórmula . Al desarrollar la intuición para el modelo de regresión múltiple, es útil considerar el modelo de regresión lineal bivariado, a saber. , se llama frecuentemente la contribución determinista a , y se llama contribución estocástica. Expresado en términos de desviaciones de las medias de muestra , este modelo también puede escribirse comoyi=α+βxi+εi,Varβ^=σ2(XX)1α + β x i y i ε i ( ˉ x , ˉ y ) ( y i - ˉ y ) = β ( x i - ˉ x ) + ( ε i - ˉ ε ) ,

yi=α+βxi+εi,i=1,,n.
α+βxiyiεi(x¯,y¯)
(yiy¯)=β(xix¯)+(εiε¯),i=1,,n.

Para ayudar a desarrollar la intuición, asumiremos que se cumplen los supuestos más simples de Gauss-Markov: estocástico, para todos , y para todos . Como ya sabe muy bien, estas condiciones garantizan que donde es la varianza muestral de . En palabras, esta fórmula hace tres afirmaciones: "La varianza de es inversamente proporcional al tamaño de la muestra , es directamente proporcional a la varianza dexii=1n(xix¯)2>0nεiiid(0,σ2)i=1,,n

Varβ^=1nσ2(Varx)1,
Varxxβ^nε , y es inversamente proporcional a la varianza de ".x

¿Por qué duplicar el tamaño de la muestra, ceteris paribus , hace que la variación de se reduzca a la mitad? Este resultado está íntimamente relacionado con el supuesto iid aplicado a : dado que se supone que los errores individuales son iid, cada observación debe tratarse ex ante como igualmente informativa. Y, duplicando el número de observaciones duplica la cantidad de información sobre los parámetros que describen la relación (supuesta lineal) entre eβ^εxy. Tener el doble de información reduce la incertidumbre sobre los parámetros a la mitad. Del mismo modo, debería ser sencillo desarrollar la intuición de por qué duplicar también duplica la varianza de .σ2β^

Pasemos, entonces, a su pregunta principal, que se trata de desarrollar la intuición para la afirmación de que la varianza de es inversamente proporcional a la varianza de . Para formalizar nociones, consideremos dos modelos de regresión lineal bivariada separados, llamados Modelo y Modelo de ahora en adelante. Asumiremos que ambos modelos satisfacen los supuestos de la forma más simple del teorema de Gauss-Markov y que los modelos comparten exactamente los mismos valores de , , y . Bajo estos supuestos, es fácil demostrar queβ^x(1)(2)αβnσ2Eβ^(1)=Eβ^(2)=β ; en palabras, ambos estimadores son insesgados. Crucialmente, también asumiremos que mientras que , . Sin pérdida de generalidad, supongamos que . ¿Qué estimador de tendrá la varianza más pequeña? Dicho de otra manera, ¿ o estarán más cerca, en promedio , de ? De la discusión anterior, tenemosx¯(1)=x¯(2)=x¯Varx(1)Varx(2)Varx(1)>Varx(2)β^β^(1)β^(2)βVarβ^(k)=1nσ2/Varx(k))para . Debido a que por suposición, se deduce que . ¿Cuál es, entonces, la intuición detrás de este resultado?k=1,2Varx(1)>Varx(2)Varβ^(1)<Varβ^(2)

Porque por supuesto , en promedio cada estará más lejos de que es el caso, en promedio, para . Denotemos la diferencia absoluta promedio esperada entre y por . La suposición de que implica que . El modelo de regresión lineal bivariado, expresado en desviaciones de las medias, establece que para el Modelo y para el ModeloVarx(1)>Varx(2)xi(1)x¯xi(2)xix¯dxVarx(1)>Varx(2)dx(1)>dx(2)dy=βdx(1)(1)dy=βdx(2)(2) . Si , esto significa que el componente determinista del Modelo , , tiene una mayor influencia en que el componente determinista del Modelo , . Recuerde que se supone que ambos modelos satisfacen los supuestos de Gauss-Markov, que las varianzas de error son las mismas en ambos modelos y que . Dado que el Modelo imparte más información sobre la contribución del componente determinista de que el Modelo , se deduce que la precisiónβ0(1)βdx(1)dy(2)βdx(2)β(1)=β(2)=β(1)y(2)con el cual se puede estimar la contribución determinista es mayor para el Modelo que para el Modelo . Lo contrario de una mayor precisión es una varianza menor de la estimación puntual de .(1)(2)β

Es razonablemente sencillo generalizar la intuición obtenida del estudio del modelo de regresión simple al modelo general de regresión lineal múltiple. La principal complicación es que, en lugar de comparar las variaciones escalares, es necesario comparar el "tamaño" de las matrices de varianza-covarianza. Tener un buen conocimiento práctico de los determinantes, trazas y valores propios de matrices simétricas reales resulta muy útil en este punto :-)

Mico
fuente
1

Digamos que tenemos observaciones (o tamaño de muestra) y parámetros.np

La matriz de covarianza de los parámetros estimados etc. es una representación de la precisión de los parámetros estimados.Var(β^)β^1,β^2

Si en un mundo ideal los datos pudieran ser perfectamente descritos por el modelo, entonces el ruido será . Ahora, las entradas diagonales de corresponden a etc. La fórmula derivada para la varianza concuerda con la intuición de que si el ruido es más bajo, las estimaciones serán más precisas.σ2=0Var(β^)Var(β1^),Var(β2^)

Además, a medida que aumenta el número de mediciones, la varianza de los parámetros estimados disminuirá. Entonces, en general, el valor absoluto de las entradas de será mayor, ya que el número de columnas de es y el número de filas de es , y cada entrada de es una suma de pares de productos El valor absoluto de las entradas de la inversa será menor.X T n X n X T X n ( X T X ) - 1XTXXTnXnXTXn(XTX)1

Por lo tanto, incluso si hay mucho ruido, aún podemos alcanzar buenas estimaciones de los parámetros si aumentamos el tamaño de la muestra . nβi^n

Espero que esto ayude.

Referencia: Sección 7.3 sobre Mínimos cuadrados: Cosentino, Carlo y Declan Bates. Control de retroalimentación en biología de sistemas. Crc Press, 2011.

Dilly Minch
fuente
1

Esto se basa en la respuesta de @Alecos Papadopuolos.

Recuerde que el resultado de una regresión de mínimos cuadrados no depende de las unidades de medida de sus variables. Suponga que su variable X es una medida de longitud, dada en pulgadas. Luego, reescalar X, digamos multiplicando por 2.54 para cambiar la unidad a centímetros, no afecta materialmente las cosas. Si vuelve a ajustar el modelo, la nueva estimación de regresión será la estimación anterior dividida por 2.54.

La matriz es la varianza de X y, por lo tanto, refleja la escala de medición de X. Si cambia la escala, debe reflejar esto en su estimación de , y esto se hace multiplicando por el inverso de .β X XXXβXX

Hong Ooi
fuente