¿Por qué los residuos en la regresión lineal siempre suman cero cuando se incluye una intersección?

14

Estoy tomando un curso sobre modelos de regresión y una de las propiedades proporcionadas para la regresión lineal es que los residuos siempre suman cero cuando se incluye una intersección.

¿Alguien puede dar una buena explicación de por qué este es el caso?

dts86
fuente
3
Es posible que primero desee reflexionar sobre la pregunta más estrecha pero relacionada de por qué en una muestra univariada, los residuos que obtiene restando la media de la muestra de cada valor también suman 0. (Intente seguir el álgebra si puede).
Glen_b - Reinstale a Mónica el
3
Tan pronto como reconozca que "suma a cero" significa "ortogonal a una de las variables explicativas" la respuesta se vuelve geométricamente obvia.
whuber

Respuestas:

18

Esto se deduce directamente de las ecuaciones normales, es decir, las ecuaciones que resuelve el estimador OLS,

X(yXb)e=0

El vector dentro de los paréntesis es, por supuesto, el vector residual o la proyección de en el complemento ortogonal del espacio de la columna de , si le gusta el álgebra lineal. Ahora, incluir un vector de unos en la matriz , que por cierto no tiene que estar en la primera columna como se hace convencionalmente, conduce a X XyXX

1e=0i=1nei=0

En el problema de dos variables, esto es aún más simple de ver, ya que minimizar la suma de los residuos al cuadrado nos lleva a

i=1n(yiabxi)=0

cuando tomamos la derivada con respecto a la intersección. A partir de esto, procedemos a obtener el estimador familiar

a=y¯bx¯

donde nuevamente vemos que la construcción de nuestros estimadores impone esta condición.

JohnK
fuente
17

En caso de que esté buscando una explicación bastante intuitiva.

En cierto sentido, el modelo de regresión lineal no es más que una media elegante. Para encontrar la media aritmética sobre algunos valores , encontramos un valor que es una medida de centralidad en el sentido de que la suma de todas las desviaciones (donde cada desviación se define como ) a la derecha del valor medio son iguales a la suma de todas las desviaciones a la izquierda de esa media. No existe una razón inherente por la que esta medida sea buena, y mucho menos la mejor manera de describir la media de una muestra, pero sin duda es intuitiva y práctica. El punto importante es que, al definir la media aritmética de esta manera, necesariamente se deduce que una vez que construimos la media aritmética, ¡todas las desviaciones de esa media deben sumar cero por definición!x¯x1,x2,,xnui=xix¯

En regresión lineal, esto no es diferente. Nos ajustamos a la línea de tal manera que la suma de todas las diferencias entre los valores ajustados (que están en la línea de regresión) y los valores reales que se encuentran por encima de la línea es exactamente igual a la suma de todas las diferencias entre la línea de regresión y todos los valores por debajo de la línea. Nuevamente, no hay una razón inherente por la cual esta es la mejor manera de construir un ajuste, pero es directa e intuitiva. Al igual que con la media aritmética: al construir nuestros valores ajustados de esta manera, necesariamente se sigue, por construcción, que todas las desviaciones de esa línea deben sumar cero, de lo contrario, esto no sería una regresión de MCO.

Manuel R
fuente
2
¡+1 para una respuesta directa, simple e intuitiva!
3

Cuando se incluye una intersección en una regresión lineal múltiple, En la regresión de mínimos cuadrados, La suma de los cuadrados de los errores se minimiza. Tome el parcial derivada de SSE con respecto a y establecerlo en cero.

y^i=β0+β1xi,1+β2xi,2++βpxi,p
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
β0
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Por lo tanto, los residuos siempre suman cero cuando se incluye una intersección en una regresión lineal.

DavidCruise
fuente
1

Una observación clave es que debido a que el modelo tiene intersección, , que es la primera columna de la matriz de diseño , puede escribirse como donde es un vector de columna con todos los ceros, pero el primer componente. También tenga en cuenta que, en notación matricial, la suma de los residuos es solo .1X

1=Xe,
e1T(yy^)

Por lo tanto,

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.

Zhanxiong
fuente
0

Una derivación simple usando álgebra matricial:

e puede escribirse como1Te

Luego

1Te=1T(Mxy) donde es la matriz ortogonal. Como es simétrico, podemos reorganizarlo para que MxMx(Mx1)Ty

que es igual a cero si y son ortogonales, que es el caso si la matriz de los regresores contiene la intersección (un vector de , de hecho).Mx1x1

Miño
fuente
No creo que esto sea correcto.
Michael R. Chernick
Si explican por qué, entonces estaré encantado de aprender algo
Miño
0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0 entoncesa^=1nvi
  3. ei=ivia=ivinnivi=0

..

Hunaphu
fuente