Si es rango completo, existe el inverso de y obtenemos la estimación de mínimos cuadrados: yX T X β = ( X T X ) - 1 X Y Var ( β ) = σ 2 ( X T X ) - 1
¿Cómo podemos explicar intuitivamente en la fórmula de varianza? La técnica de derivación es clara para mí.
regression
variance
least-squares
Daniel Yefimov
fuente
fuente
Respuestas:
Considere una regresión simple sin un término constante, y donde el regresor único se centra en su media muestral. Entonces es ( veces) su varianza muestral y es recíproco. Entonces, cuanto mayor sea la varianza = variabilidad en el regresor, menor será la varianza del estimador de coeficientes: cuanta más variabilidad tengamos en la variable explicativa, más exactamente podremos estimar el coeficiente desconocido. n ( X ′ X ) - 1X′X n (X′X)−1
¿Por qué? Como cuanto más variable es un regresor, más información contiene. Cuando los regresores son muchos, esto se generaliza al inverso de su matriz de varianza-covarianza, que también tiene en cuenta la co-variabilidad de los regresores. En el caso extremo donde es diagonal, la precisión para cada coeficiente estimado depende solo de la varianza / variabilidad del regresor asociado (dada la varianza del término de error).X′X
fuente
Una manera simple de ver es como el análogo de matriz (multivariante) de , que es la varianza del coeficiente de pendiente en la regresión OLS simple. Incluso se puede obtener para esa variación omitiendo la intersección en el modelo, es decir, realizando una regresión a través del origen.σ 2σ2(XTX)−1 σ2σ2∑ni=1(Xi−X¯)2 σ2∑ni=1X2i
De cualquiera de estas fórmulas se puede ver que una mayor variabilidad de la variable predictora en general conducirá a una estimación más precisa de su coeficiente. Esta es la idea que a menudo se explota en el diseño de experimentos, donde al elegir valores para los predictores (no aleatorios), se trata de hacer el determinante de más grande posible, siendo el determinante una medida de variabilidad.(XTX)
fuente
¿Ayuda la transformación lineal de la variable aleatoria gaussiana? Usando la regla de que si, , entonces A x + b ∼ N ( A μ + b , A T Σ A ) .x ∼ N( μ , Σ ) A x + b ∼ N ( A μ + b , ATΣ A )
Suponiendo que es el modelo subyacente y ϵ ∼ N ( 0 , σ 2 ) .Y= Xβ+ ϵ ϵ ∼ N( 0 , σ2)
Así que es una matriz de escalamiento complicado que transforma la distribución de . Y( XTX)- 1XT Y
Espero que haya sido útil.
fuente
Adoptaré un enfoque diferente para desarrollar la intuición que subyace a la fórmula . Al desarrollar la intuición para el modelo de regresión múltiple, es útil considerar el modelo de regresión lineal bivariado, a saber. , se llama frecuentemente la contribución determinista a , y se llama contribución estocástica. Expresado en términos de desviaciones de las medias de muestra , este modelo también puede escribirse comoyi=α+βxi+εi,Varβ^= σ2( X′X)- 1 α + β x i y i ε i ( ˉ x , ˉ y ) ( y i - ˉ y ) = β ( x i - ˉ x ) + ( ε i - ˉ ε ) ,
Para ayudar a desarrollar la intuición, asumiremos que se cumplen los supuestos más simples de Gauss-Markov: estocástico, para todos , y para todos . Como ya sabe muy bien, estas condiciones garantizan que donde es la varianza muestral de . En palabras, esta fórmula hace tres afirmaciones: "La varianza de es inversamente proporcional al tamaño de la muestra , es directamente proporcional a la varianza deXyo ∑nortei = 1( xyo- x¯)2> 0 norte εyo∼ iid ( 0 , σ2) i = 1 , ... , n
¿Por qué duplicar el tamaño de la muestra, ceteris paribus , hace que la variación de se reduzca a la mitad? Este resultado está íntimamente relacionado con el supuesto iid aplicado a : dado que se supone que los errores individuales son iid, cada observación debe tratarse ex ante como igualmente informativa. Y, duplicando el número de observaciones duplica la cantidad de información sobre los parámetros que describen la relación (supuesta lineal) entre eβ^ ε X y . Tener el doble de información reduce la incertidumbre sobre los parámetros a la mitad. Del mismo modo, debería ser sencillo desarrollar la intuición de por qué duplicar también duplica la varianza de .σ2 β^
Pasemos, entonces, a su pregunta principal, que se trata de desarrollar la intuición para la afirmación de que la varianza de es inversamente proporcional a la varianza de . Para formalizar nociones, consideremos dos modelos de regresión lineal bivariada separados, llamados Modelo y Modelo de ahora en adelante. Asumiremos que ambos modelos satisfacen los supuestos de la forma más simple del teorema de Gauss-Markov y que los modelos comparten exactamente los mismos valores de , , y . Bajo estos supuestos, es fácil demostrar queβ^ X ( 1 ) ( 2 ) α β n σ2 Eβ^(1)=Eβ^(2)=β ; en palabras, ambos estimadores son insesgados. Crucialmente, también asumiremos que mientras que , . Sin pérdida de generalidad, supongamos que . ¿Qué estimador de tendrá la varianza más pequeña? Dicho de otra manera, ¿ o estarán más cerca, en promedio , de ? De la discusión anterior, tenemosx¯(1)=x¯(2)=x¯ Varx(1)≠Varx(2) Varx(1)>Varx(2) β^ β^(1) β^(2) β Varβ^(k)=1nσ2/Varx(k)) para . Debido a que por suposición, se deduce que . ¿Cuál es, entonces, la intuición detrás de este resultado?k=1,2 Varx(1)>Varx(2) Varβ^(1)<Varβ^(2)
Porque por supuesto , en promedio cada estará más lejos de que es el caso, en promedio, para . Denotemos la diferencia absoluta promedio esperada entre y por . La suposición de que implica que . El modelo de regresión lineal bivariado, expresado en desviaciones de las medias, establece que para el Modelo y para el ModeloVarx(1)>Varx(2) x(1)i x¯ x(2)i xi x¯ dx Varx(1)>Varx(2) d(1)x>d(2)x dy=βd(1)x (1) dy=βd(2)x (2) . Si , esto significa que el componente determinista del Modelo , , tiene una mayor influencia en que el componente determinista del Modelo , . Recuerde que se supone que ambos modelos satisfacen los supuestos de Gauss-Markov, que las varianzas de error son las mismas en ambos modelos y que . Dado que el Modelo imparte más información sobre la contribución del componente determinista de que el Modelo , se deduce que la precisiónβ≠0 (1) βd(1)x dy (2) βd(2)x β(1)=β(2)=β (1) y (2) con el cual se puede estimar la contribución determinista es mayor para el Modelo que para el Modelo . Lo contrario de una mayor precisión es una varianza menor de la estimación puntual de .(1) (2) β
Es razonablemente sencillo generalizar la intuición obtenida del estudio del modelo de regresión simple al modelo general de regresión lineal múltiple. La principal complicación es que, en lugar de comparar las variaciones escalares, es necesario comparar el "tamaño" de las matrices de varianza-covarianza. Tener un buen conocimiento práctico de los determinantes, trazas y valores propios de matrices simétricas reales resulta muy útil en este punto :-)
fuente
Digamos que tenemos observaciones (o tamaño de muestra) y parámetros.n p
La matriz de covarianza de los parámetros estimados etc. es una representación de la precisión de los parámetros estimados.Var(β^) β^1,β^2
Si en un mundo ideal los datos pudieran ser perfectamente descritos por el modelo, entonces el ruido será . Ahora, las entradas diagonales de corresponden a etc. La fórmula derivada para la varianza concuerda con la intuición de que si el ruido es más bajo, las estimaciones serán más precisas.σ2=0 Var(β^) Var(β1^),Var(β2^)
Además, a medida que aumenta el número de mediciones, la varianza de los parámetros estimados disminuirá. Entonces, en general, el valor absoluto de las entradas de será mayor, ya que el número de columnas de es y el número de filas de es , y cada entrada de es una suma de pares de productos El valor absoluto de las entradas de la inversa será menor.X T n X n X T X n ( X T X ) - 1XTX XT n X n XTX n (XTX)−1
Por lo tanto, incluso si hay mucho ruido, aún podemos alcanzar buenas estimaciones de los parámetros si aumentamos el tamaño de la muestra . nβi^ n
Espero que esto ayude.
Referencia: Sección 7.3 sobre Mínimos cuadrados: Cosentino, Carlo y Declan Bates. Control de retroalimentación en biología de sistemas. Crc Press, 2011.
fuente
Esto se basa en la respuesta de @Alecos Papadopuolos.
Recuerde que el resultado de una regresión de mínimos cuadrados no depende de las unidades de medida de sus variables. Suponga que su variable X es una medida de longitud, dada en pulgadas. Luego, reescalar X, digamos multiplicando por 2.54 para cambiar la unidad a centímetros, no afecta materialmente las cosas. Si vuelve a ajustar el modelo, la nueva estimación de regresión será la estimación anterior dividida por 2.54.
La matriz es la varianza de X y, por lo tanto, refleja la escala de medición de X. Si cambia la escala, debe reflejar esto en su estimación de , y esto se hace multiplicando por el inverso de .β X ′ XX′X β X′X
fuente