Para la regresión lineal simple, el coeficiente de regresión es calculable directamente a partir de la matriz de varianza-covarianza , por
dondees el índice de la variable dependiente, yes el índice de la variable explicativa.
Si uno solo tiene la matriz de covarianza, ¿es posible calcular los coeficientes para un modelo con múltiples variables explicativas?
ETA: para dos variables explicativas, parece que y análogamente paraβ2. No veo de inmediato cómo extender esto a tres o más variables.
Respuestas:
Sí, la matriz de covarianza de todas las variables, explicativa y de respuesta, contiene la información necesaria para encontrar todos los coeficientes, siempre que se incluya un término de intercepción (constante) en el modelo. (Aunque las covarianzas no proporcionan información sobre el término constante, se puede encontrar a partir de los medios de los datos).
Análisis
Dejar que los datos para las variables explicativas pueden organizar como vectores columna -dimensional x 1 , x 2 , ... , x p y la variable de respuesta sean el vector columna y , considerado como una realización de una variable aleatoria Y . Los ordinarios estimaciones de mínimos cuadrados beta de los coeficientes en el modelon x1,x2,…,xp y Y β^
se obtienen ensamblando los vectores de columna X 0 = ( 1 , 1 , … , 1 ) ′ , X 1 , … , X p en una matriz n × p + 1 X y resolviendo el sistema de ecuaciones linealesp+1 X0=(1,1,…,1)′,X1,…,Xp n×p+1 X
Es equivalente al sistema
La eliminación gaussiana resolverá este sistema. Se procede por contigua a la de la matriz 1p+1×p+1 y elp+1-vector11nX′X p+1 en unamatrizp+1×p+2Ay reduciéndola por filas. 1nX′y p+1×p+2 A
El primer paso inspeccionará . Al encontrar que esto no es cero, procede a restar los múltiplos apropiados de la primera fila deAde las filas restantes para poner a cero las entradas restantes en su primera columna. Estos múltiplos serán11n(X′X)11=1nX′0X0=1 A y el número restado de la entradaAi+1,j+1=X ′ i Xjserá igual a ¯ X i ¯ X j. Esta es solo la fórmula para la covarianza deXiyXj. Además, el número que queda en la posicióni+1,p+2es igual a11nX′0Xi=X¯¯¯¯i Ai+1,j+1=X′iXj X¯¯¯¯iX¯¯¯¯j Xi Xj i+1,p+2 , la covarianza deXicony.1nX′iy−Xi¯¯¯¯¯¯y¯¯¯ Xi y
Por lo tanto, después del primer paso de eliminación gaussiana, el sistema se reduce a la resolución
y obviamente, dado que todos los coeficientes son covarianzas, esa solución se puede encontrar a partir de la matriz de covarianza de todas las variables.
(Cuando es invertible, la solución se puede escribir C - 1 ( Cov ( X i , y ) ) ' . Las fórmulas dadas en la pregunta son casos especiales de esto cuando p = 1 y p = 2. Escribir estas fórmulas explícitamente se vuelven más y más complejos a medida que crece P. Además, son inferiores para el cómputo numérico, que se realiza mejor resolviendo el sistema de ecuaciones en lugar de invertir la matriz C ).C C−1(Cov(Xi,y))′ p=1 p=2 p C
Ejemplo
Para ilustrar, el siguiente
R
código crea algunos datos, calcula sus covarianzas y obtiene las estimaciones de coeficientes de mínimos cuadrados únicamente a partir de esa información. Los compara con las estimaciones obtenidas del estimador de mínimos cuadradoslm
.El resultado muestra un acuerdo entre los dos métodos:
fuente
cov(z)
de cálculos anteriores.y
yx
ybeta.hat
. Losy
yx
son parte de los datos originales. ¿Es posible derivar la intersección de la matriz de covarianza y las medias solas? ¿Podría por favor proporcionar la notación?