Estoy tomando un curso sobre modelos de regresión y una de las propiedades proporcionadas para la regresión lineal es que los residuos siempre suman cero cuando se incluye una intersección.
¿Alguien puede dar una buena explicación de por qué este es el caso?
regression
residuals
dts86
fuente
fuente
Respuestas:
Esto se deduce directamente de las ecuaciones normales, es decir, las ecuaciones que resuelve el estimador OLS,
El vector dentro de los paréntesis es, por supuesto, el vector residual o la proyección de en el complemento ortogonal del espacio de la columna de , si le gusta el álgebra lineal. Ahora, incluir un vector de unos en la matriz , que por cierto no tiene que estar en la primera columna como se hace convencionalmente, conduce a X Xy X X
En el problema de dos variables, esto es aún más simple de ver, ya que minimizar la suma de los residuos al cuadrado nos lleva a
cuando tomamos la derivada con respecto a la intersección. A partir de esto, procedemos a obtener el estimador familiar
donde nuevamente vemos que la construcción de nuestros estimadores impone esta condición.
fuente
En caso de que esté buscando una explicación bastante intuitiva.
En cierto sentido, el modelo de regresión lineal no es más que una media elegante. Para encontrar la media aritmética sobre algunos valores , encontramos un valor que es una medida de centralidad en el sentido de que la suma de todas las desviaciones (donde cada desviación se define como ) a la derecha del valor medio son iguales a la suma de todas las desviaciones a la izquierda de esa media. No existe una razón inherente por la que esta medida sea buena, y mucho menos la mejor manera de describir la media de una muestra, pero sin duda es intuitiva y práctica. El punto importante es que, al definir la media aritmética de esta manera, necesariamente se deduce que una vez que construimos la media aritmética, ¡todas las desviaciones de esa media deben sumar cero por definición!x¯ x1,x2,…,xn ui=xi−x¯
En regresión lineal, esto no es diferente. Nos ajustamos a la línea de tal manera que la suma de todas las diferencias entre los valores ajustados (que están en la línea de regresión) y los valores reales que se encuentran por encima de la línea es exactamente igual a la suma de todas las diferencias entre la línea de regresión y todos los valores por debajo de la línea. Nuevamente, no hay una razón inherente por la cual esta es la mejor manera de construir un ajuste, pero es directa e intuitiva. Al igual que con la media aritmética: al construir nuestros valores ajustados de esta manera, necesariamente se sigue, por construcción, que todas las desviaciones de esa línea deben sumar cero, de lo contrario, esto no sería una regresión de MCO.
fuente
Cuando se incluye una intersección en una regresión lineal múltiple, En la regresión de mínimos cuadrados, La suma de los cuadrados de los errores se minimiza. Tome el parcial derivada de SSE con respecto a y establecerlo en cero.y^i=β0+β1xi,1+β2xi,2+…+βpxi,p SSE=∑i=1n(ei)2=∑i=1n(yi−yi^)2=∑i=1n(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)2 β0 ∂SSE∂β0=∑i=1n2(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)1(−1)=−2∑i=1nei=0
Por lo tanto, los residuos siempre suman cero cuando se incluye una intersección en una regresión lineal.
fuente
Una observación clave es que debido a que el modelo tiene intersección, , que es la primera columna de la matriz de diseño , puede escribirse como donde es un vector de columna con todos los ceros, pero el primer componente. También tenga en cuenta que, en notación matricial, la suma de los residuos es solo .1 X 1=Xe, e 1T(y−y^)
Por lo tanto,====1T(y−y^)=1T(I−H)yeTXT(I−X(XTX)−1XT)yeT(XT−XTX(XTX)−1XT)yeT(XT−XT)y0.
fuente
Una derivación simple usando álgebra matricial:
Luego
que es igual a cero si y son ortogonales, que es el caso si la matriz de los regresores contiene la intersección (un vector de , de hecho).Mx 1 x 1
fuente
..
fuente