El siguiente es un modelo creado a partir de un mtcars
conjunto de datos:
> ols(mpg~wt+am+qsec, mtcars)
Linear Regression Model
ols(formula = mpg ~ wt + am + qsec, data = mtcars)
Model Likelihood Discrimination
Ratio Test Indexes
Obs 32 LR chi2 60.64 R2 0.850
sigma 2.4588 d.f. 3 R2 adj 0.834
d.f. 28 Pr(> chi2) 0.0000 g 6.456
Residuals
Min 1Q Median 3Q Max
-3.4811 -1.5555 -0.7257 1.4110 4.6610
Coef S.E. t Pr(>|t|)
Intercept 9.6178 6.9596 1.38 0.1779
wt -3.9165 0.7112 -5.51 <0.0001
am 2.9358 1.4109 2.08 0.0467
qsec 1.2259 0.2887 4.25 0.0002
El modelo parece bueno con total de 0,85. Sin embargo, los valores parciales de vistos en la siguiente gráfica no se suman a este valor. Suman hasta aproximadamente 0.28.R 2
> plot(anova(mod), what='partial R2')
¿Hay alguna relación entre la suma de todas parcial y el total de ? El análisis se realiza con paquete.R 2rms
Respuestas:
No.
Una forma de entender parcial para un predictor dado es que es igual al que obtendrías si primero regresas tu variable independiente en todos los demás predictores , tomas los residuales y regresas aquellos en el predictor restante.R 2R2 R2
Entonces, por ejemplo, si todos los predictores son perfectamente idénticos (colineales), uno puede tener decente , pero parcial para todos los predictores será exactamente cero, porque cualquier predictor tiene cero poder explicativo adicional.R 2R2 R2
Por otro lado, si todos los predictores juntos explican perfectamente la variable dependiente, es decir, , entonces parcial para cada predictor también será , porque lo que no sea explicado por todos los demás predictores puede explicarse perfectamente por el resto uno.R 2 1R2=1 R2 1
Entonces, la suma de todos los parciales puede estar fácilmente por debajo o por encima del total . No tienen que coincidir incluso si todos los predictores son ortogonales. parcial es una medida un poco extraña.R 2 R 2R2 R2 R2
Vea este largo hilo para muchos más detalles: Importancia de los predictores en regresión múltiple: parcial vs. coeficientes estandarizadosR2 .
fuente