Mi conjunto de datos ( ) tiene una variable dependiente (DV), cinco variables de "línea base" independientes (P1, P2, P3, P4, P5) y una variable de interés independiente (Q).
He ejecutado regresiones lineales de OLS para los siguientes dos modelos:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Es decir, agregar el predictor Q ha disminuido la cantidad de varianza explicada en el modelo lineal. Por lo que yo entiendo, esto no debería suceder .
Para ser claros, estos son valores de R cuadrado y valores de R cuadrado no no ajustados.
He verificado los valores de R cuadrado utilizando Jasp y de Python statsmodels .
¿Hay alguna razón por la que podría estar viendo este fenómeno? ¿Quizás algo relacionado con el método OLS?
Respuestas:
¿Podría ser que le faltan valores
Q
que se están descartando automáticamente? Eso tendría implicaciones en la muestra, haciendo que las dos regresiones no sean comparables.fuente