¿Las estimaciones de los coeficientes de regresión no están correlacionadas?

11

Considere una regresión simple (normalidad no asumida): donde es con media y desviación estándar . ¿Las estimaciones de mínimos cuadrados de y no están correlacionadas?

Yi=a+bXi+ei,
ei0σab
arnab
fuente
2
¿Qué piensas? en.wikipedia.org/wiki/Ordinary_least_squares , sección "Propiedades de muestras finitas". Esta pregunta fue respondida muchas veces en este sitio.
mpiktas

Respuestas:

15

Esta es una consideración importante en el diseño de experimentos, donde puede ser deseable no tener (o muy poca) correlación entre las estimaciones y . Tal falta de correlación se puede lograr controlando los valores de .a^b^Xi


Para analizar los efectos de en las estimaciones, los valores (que son vectores de fila de longitud ) se ensamblan verticalmente en una matriz , la matriz de diseño, que tiene tantas filas como datos y (obviamente ) Dos columnas. Los correspondientes se ensamblan en un vector largo (columna) . En estos términos, escribiendo para los coeficientes ensamblados, el modelo esXi(1,Xi)2XYiyβ=(a,b)

E(Y)=Xβ

Se (generalmente) que las son variables aleatorias independientes cuyas variaciones son una constante para algunos desconocidos . Se considera que las observaciones dependientes son una realización de la variable aleatoria valor vectorial .Yiσ2σ>0yY

La solución OLS es

β^=(XX)1Xy,

suponiendo que esta matriz inversa exista. Por lo tanto, usando propiedades básicas de multiplicación de matriz y covarianza,

Cov(β^)=Cov((XX)1XY)=((XX)1Xσ2X(XX)1)=σ2(XX)1.

La matriz tiene solo dos filas y dos columnas, que corresponden a los parámetros del modelo . La correlación de con es proporcional a los elementos fuera de la diagonal de que por la Regla de Cramer son proporcionales al producto escalar de los dos columnas de . Dado que una de las columnas es todo s, cuyo producto de punto con la otra columna (que consiste en ) es su suma, encontramos(XX)1(a,b)a^b^(XX)1,X1Xi

a^ y no están correlacionados si y solo la suma (o equivalentemente la media) de es cero.b^Xi

Esta condición de ortogonalidad frecuentemente se logra al volver a centrar el (restando su media de cada uno). Aunque esto no alterará la pendiente estimada , sí cambia la intersección estimada . Si eso es importante o no depende de la aplicación.Xib^a^


Este análisis se aplica a la regresión múltiple: la matriz de diseño tendrá columnas para variables independientes (una columna adicional consta de s) y será un vector de longitud , pero de lo contrario todo pasará como antes. p+1p1βp+1

En lenguaje convencional, dos columnas de se llaman ortogonales cuando su producto punto es cero. Cuando una columna de (digamos la columna ) es ortogonal a todas las otras columnas, es un hecho algebraico fácilmente demostrado que todas las entradas fuera de la diagonal en la fila y la columna de son cero (es decir, los componentes y para todos son cero). Por consiguiente,XXiii(XX)1ijjiji

Dos estimaciones de coeficientes de regresión múltiple y no están correlacionadas siempre que cualquiera (o ambas) de las columnas correspondientes de la matriz de diseño sean ortogonales a todas las demás columnas.β^iβ^j

Muchos diseños experimentales estándar consisten en elegir valores de las variables independientes para hacer que las columnas sean mutuamente ortogonales. Esto "separa" las estimaciones resultantes al garantizar, antes de que se recopilen datos, que las estimaciones no estarán correlacionadas. (Cuando las respuestas tienen distribuciones normales, esto implica que las estimaciones serán independientes, lo que simplifica enormemente su interpretación).

whuber
fuente
La respuesta dice "elementos [...] fuera de la diagonal, que son solo los productos de punto de las dos columnas de X". Sin embargo, ¿ esto es cierto para , no ? XX(XX)1
Heisenberg
@Heisenberg Ese es un buen punto. No estaba claro sobre esto. No hay ambigüedad en el caso de dos columnas, pero necesito pensar cómo mejorar la presentación para el caso de más columnas.
whuber
@Heisenberg Estoy agradecido por su observación perceptiva: me permitió corregir un error sustancial en la discusión del caso de regresión múltiple.
whuber