¿Por qué la regresión lineal y ANOVA dan un valor diferente en caso de considerar la interacción entre variables?

22

Estaba tratando de ajustar datos de una serie de tiempo (sin réplicas) usando el modelo de regresión. Los datos son los siguientes:

> xx.2
          value time treat
    1  8.788269    1     0
    2  7.964719    6     0
    3  8.204051   12     0
    4  9.041368   24     0
    5  8.181555   48     0
    6  8.041419   96     0
    7  7.992336  144     0
    8  7.948658    1     1
    9  8.090211    6     1
    10 8.031459   12     1
    11 8.118308   24     1
    12 7.699051   48     1
    13 7.537120   96     1
    14 7.268570  144     1

Debido a la falta de réplicas, trato el tiempo como variable continua. La columna "tratar" muestra el caso y los datos de control, respectivamente.

Primero, ajusto el modelo "value = time * treat" con "lm" en R:

summary(lm(value~time*treat,data=xx.2))

Call:
lm(formula = value ~ time * treat, data = xx.2)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.50627 -0.12345  0.00296  0.04124  0.63785 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  8.493476   0.156345  54.325 1.08e-13 ***
time        -0.003748   0.002277  -1.646   0.1307    
treat       -0.411271   0.221106  -1.860   0.0925 .  
time:treat  -0.001938   0.003220  -0.602   0.5606    

El valor del tiempo y el tratamiento no es significativo.

Mientras que con anova, obtuve resultados diferentes:

 summary(aov(value~time*treat,data=xx.2))
            Df Sum Sq Mean Sq F value Pr(>F)  
time         1 0.7726  0.7726   8.586 0.0150 *
treat        1 0.8852  0.8852   9.837 0.0106 *
time:treat   1 0.0326  0.0326   0.362 0.5606  
Residuals   10 0.8998  0.0900                 

El valor de tiempo y trato cambió.

Con la regresión lineal, si tengo razón, significa que el tiempo y el tratamiento no tienen una influencia significativa en el valor, pero con ANOVA, significa que el tiempo y el tratamiento tienen una influencia significativa en el valor.

¿Podría alguien explicarme por qué hay diferencia en estos dos métodos y cuál usar?

shao
fuente
3
Es posible que desee buscar los diferentes tipos de sumas de cuadrados. Específicamente, creo que la regresión lineal devuelve la suma de cuadrados de tipo III, mientras que anova devuelve un tipo diferente.
asumido normal
3
Si guarda los resultados de lmy aovpuede comprobar que producen ajustes idénticos; por ejemplo, compare sus residuos con la residualsfunción o examine sus coeficientes (la $coefficientsranura en ambos casos).
whuber

Respuestas:

18

Los ajustes para lm () y aov () son idénticos pero los informes son diferentes. Las pruebas t son el impacto marginal de las variables en cuestión, dada la presencia de todas las demás variables. Las pruebas F son secuenciales, por lo que evalúan la importancia del tiempo en presencia de nada más que la intercepción, de tratar en presencia de nada más que la intercepción y el tiempo, y de la interacción en presencia de todo lo anterior.

Suponiendo que esté interesado en la importancia del tratamiento, le sugiero que se ajuste a dos modelos, uno con y otro sin él, compare los dos colocando ambos modelos en anova () y use esa prueba F. Esto probará el tratamiento y la interacción simultáneamente.

Considera lo siguiente:

> xx.2 <- as.data.frame(matrix(c(8.788269, 1, 0,
+ 7.964719, 6, 0,
+ 8.204051, 12, 0,
+ 9.041368, 24, 0,
+ 8.181555, 48, 0,
+ 8.041419, 96, 0,
+ 7.992336, 144, 0,
+ 7.948658, 1, 1,
+ 8.090211, 6, 1,
+ 8.031459, 12, 1,
+ 8.118308, 24, 1,
+ 7.699051, 48, 1,
+ 7.537120, 96, 1,
+ 7.268570, 144, 1), byrow=T, ncol=3))
> names(xx.2) <- c("value", "time", "treat")
> 
> mod1 <- lm(value~time*treat, data=xx.2)
> anova(mod1)
Analysis of Variance Table

Response: value
           Df  Sum Sq Mean Sq F value  Pr(>F)  
time        1 0.77259 0.77259  8.5858 0.01504 *
treat       1 0.88520 0.88520  9.8372 0.01057 *
time:treat  1 0.03260 0.03260  0.3623 0.56064  
Residuals  10 0.89985 0.08998                  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 
> mod2 <- aov(value~time*treat, data=xx.2)
> anova(mod2)
Analysis of Variance Table

Response: value
           Df  Sum Sq Mean Sq F value  Pr(>F)  
time        1 0.77259 0.77259  8.5858 0.01504 *
treat       1 0.88520 0.88520  9.8372 0.01057 *
time:treat  1 0.03260 0.03260  0.3623 0.56064  
Residuals  10 0.89985 0.08998                  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 
> summary(mod2)
            Df Sum Sq Mean Sq F value Pr(>F)  
time         1 0.7726  0.7726   8.586 0.0150 *
treat        1 0.8852  0.8852   9.837 0.0106 *
time:treat   1 0.0326  0.0326   0.362 0.5606  
Residuals   10 0.8998  0.0900                 
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 
> summary(mod1)

Call:
lm(formula = value ~ time * treat, data = xx.2)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.50627 -0.12345  0.00296  0.04124  0.63785 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  8.493476   0.156345  54.325 1.08e-13 ***
time        -0.003748   0.002277  -1.646   0.1307    
treat       -0.411271   0.221106  -1.860   0.0925 .  
time:treat  -0.001938   0.003220  -0.602   0.5606    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1 

Residual standard error: 0.3 on 10 degrees of freedom
Multiple R-squared: 0.6526,     Adjusted R-squared: 0.5484 
F-statistic: 6.262 on 3 and 10 DF,  p-value: 0.01154 
Peter Ellis
fuente
Gracias por una explicación detallada, me recuerda al ANCOVA (análisis de covarianza). El primer paso de ANCOVA es probar la interacción entre el factor categórico y la covariable para ver si tienen una pendiente idéntica para ambas condiciones. Es bastante similar a lo que hice aquí. En ANCOVA, proporciona el mismo valor para la interacción en la prueba t y la prueba F, ya que la interacción es el último término en aov.
shao
17

La respuesta de Peter Ellis es excelente, pero hay otro punto que hacer. El estadístico -test (y su valor ) es una prueba de si . La prueba en la impresión es si la variable agregada reduce significativamente la suma residual de cuadrados.p β = 0 Ftpβ=0Fanova()

La prueba es independiente del orden, mientras que la prueba no lo es. De ahí la sugerencia de Peter de que pruebe las variables en diferentes órdenes. También es posible que las variables significativas en una prueba no sean significativas en la otra (y viceversa).FtF

Mi sentido (y otros contribuyentes son bienvenidos para corregirme) es que cuando intentas predecir fenómenos (como en una aplicación de sistemas), estás más interesado en reducir la varianza con la menor cantidad de predictores y, por lo tanto, quieres los anova()resultados. Sin embargo, si está tratando de establecer el efecto marginal de en , estará más preocupado por la importancia de su particular de interés, y todas las demás variables solo controlarán las explicaciones alternativas que sus revisores pares tratarán de encontrar.y βXyβ

Gregmacfarlane
fuente
2

Las dos respuestas anteriores son geniales, pero pensé que agregaría un poco más. Se puede obtener otra pepita de información desde aquí .

Cuando informa los lm()resultados con el término de interacción, dice algo como: "tratar 1 es diferente de tratar 0 (beta! = 0, p = 0.0925), cuando el tiempo se establece en el valor base de 1 ". Mientras que los anova()resultados ( como se mencionó anteriormente ) ignoran cualquier otra variable y solo se preocupan por las diferencias en la varianza.

Puede probar esto eliminando su término de interacción y utilizando un modelo simple con solo dos efectos principales ( m1 ):

> m1 = lm(value~time+treat,data=dat)
> summary(m1)

Call:
lm(formula = value ~ time + treat, data = dat)

Residuals:
     Min       1Q   Median       3Q      Max 
-0.54627 -0.10533 -0.04574  0.11975  0.61528 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept)  8.539293   0.132545  64.426 1.56e-15 ***
time        -0.004717   0.001562  -3.019  0.01168 *  
treat       -0.502906   0.155626  -3.232  0.00799 ** 
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.2911 on 11 degrees of freedom
Multiple R-squared:   0.64, Adjusted R-squared:  0.5746 
F-statistic: 9.778 on 2 and 11 DF,  p-value: 0.003627

> anova(m1)
Analysis of Variance Table

Response: value
          Df  Sum Sq Mean Sq F value   Pr(>F)   
time       1 0.77259 0.77259  9.1142 0.011677 * 
treat      1 0.88520 0.88520 10.4426 0.007994 **
Residuals 11 0.93245 0.08477                    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En este caso, vemos que los valores p informados son los mismos; eso es porque en el caso de este modelo más simple,

Constantino
fuente
Esta respuesta lamentablemente parece inacabada. Todavía +1 para el enlace y por mencionar que el efecto se debe a diferentes esquemas de codificación.
ameba dice Reinstate Monica
2
También se debe agregar eso summary(lm)y anova(lm)no siempre dará un resultado idéntico si no hay un término de interacción. Sucede que en estos datos timey treatson ortogonales, las sumas de cuadrados de tipo I (secuencial) y III (marginal) producen resultados idénticos.
ameba dice Reinstate Monica
2
  • La diferencia tiene que ver con las comparaciones por pares de tipos de modelos en cascada.
  • Además, la función aov () tiene un problema con la forma en que elige los grados de libertad. Parece mezclar dos conceptos: 1) la suma de cuadrados de las comparaciones escalonadas, 2) los grados de libertad de una imagen general.

REPRODUCCIÓN DE PROBLEMAS

> data <- list(value = c (8.788269,7.964719,8.204051,9.041368,8.181555,8.0414149,7.992336,7.948658,8.090211,8.031459,8.118308,7.699051,7.537120,7.268570), time = c(1,6,12,24,48,96,144,1,6,12,24,48,96,144), treat = c(0,0,0,0,0,0,0,1,1,1,1,1,1,1) )
> summary( lm(value ~ treat*time, data=data) )
> summary( aov(value ~ 1 + treat + time + I(treat*time),data=data) )

ALGUNOS MODELOS UTILIZADOS EN LA EXPLICACIÓN

#all linear models used in the explanation below
> model_0                      <- lm(value ~ 1, data)
> model_time                   <- lm(value ~ 1 + time, data)
> model_treat                  <- lm(value ~ 1 + treat, data)
> model_interaction            <- lm(value ~ 1 + I(treat*time), data)
> model_treat_time             <- lm(value ~ 1 + treat + time, data)
> model_treat_interaction      <- lm(value ~ 1 + treat + I(treat*time), data)
> model_time_interaction       <- lm(value ~ 1 + time + I(treat*time), data)
> model_treat_time_interaction <- lm(value ~ 1 + time + treat + I(treat*time), data)

CÓMO FUNCIONA LM T_TEST Y SE RELACIONA CON F-TEST

# the t-test with the estimator and it's variance, mean square error, is
# related to the F test of pairwise comparison of models by dropping 1
# model parameter

> anova(model_treat_time_interaction, model_time_interaction)

Analysis of Variance Table

Model 1: value ~ 1 + time + treat + I(treat * time)
Model 2: value ~ 1 + time + I(treat * time)
  Res.Df     RSS Df Sum of Sq      F  Pr(>F)  
1     10 0.89985                              
2     11 1.21118 -1  -0.31133 3.4598 0.09251 .
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

> anova(model_treat_time_interaction, model_treat_interaction)

Analysis of Variance Table

Model 1: value ~ 1 + time + treat + I(treat * time)
Model 2: value ~ 1 + treat + I(treat * time)
  Res.Df     RSS Df Sum of Sq      F Pr(>F)
1     10 0.89985                           
2     11 1.14374 -1   -0.2439 2.7104 0.1307

> anova(model_treat_time_interaction, model_treat_time)

Analysis of Variance Table

Model 1: value ~ 1 + time + treat + I(treat * time)
Model 2: value ~ 1 + treat + time
  Res.Df     RSS Df Sum of Sq      F Pr(>F)
1     10 0.89985                           
2     11 0.93245 -1 -0.032599 0.3623 0.5606

> # which is the same as
> drop1(model_treat_time_interaction, scope  = ~time+treat+I(treat*time), test="F")

Single term deletions

Model:
value ~ 1 + time + treat + I(treat * time)
                Df Sum of Sq     RSS     AIC F value  Pr(>F)  
<none>                       0.89985 -30.424                  
time             1  0.243896 1.14374 -29.067  2.7104 0.13072  
treat            1  0.311333 1.21118 -28.264  3.4598 0.09251 .
I(treat * time)  1  0.032599 0.93245 -31.926  0.3623 0.56064  
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

CÓMO FUNCIONA Y ELIGE AOV DF EN PRUEBAS F

> #the aov function makes stepwise additions/drops
> 
> #first the time, then treat, then the interaction
> anova(model_0, model_time)

Analysis of Variance Table

Model 1: value ~ 1
Model 2: value ~ 1 + time
  Res.Df    RSS Df Sum of Sq      F  Pr(>F)  
1     13 2.5902                              
2     12 1.8176  1    0.7726 5.1006 0.04333 *
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

> anova(model_time, model_treat_time)

Analysis of Variance Table

Model 1: value ~ 1 + time
Model 2: value ~ 1 + treat + time
  Res.Df     RSS Df Sum of Sq      F   Pr(>F)   
1     12 1.81764                                
2     11 0.93245  1    0.8852 10.443 0.007994 **
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

> anova(model_treat_time, model_treat_time_interaction)

Analysis of Variance Table

Model 1: value ~ 1 + treat + time
Model 2: value ~ 1 + time + treat + I(treat * time)
  Res.Df     RSS Df Sum of Sq      F Pr(>F)
1     11 0.93245                           
2     10 0.89985  1  0.032599 0.3623 0.5606

> 
> # note that the sum of squares for within model variation is the same
> # but the F values and p-values are not the same because the aov 
> # function somehow chooses to use the degrees of freedom in the 
> # complete model in all stepwise changes
>

NOTA IMPORTANTE

> # Although the p and F values do not exactly match, it is this effect
> # of order and selection of cascading or not in model comparisons. 
> # An important note to make is that the comparisons are made by 
> # stepwise additions and changing the order of variables has an 
> # influence on the outcome!
>
> # Additional note changing the order of 'treat' and 'time' has no 
> # effect because they are not correlated

> summary( aov(value ~ 1 + treat + time +I(treat*time), data=data) )

        Df Sum Sq Mean Sq F value Pr(>F)  
treat            1 0.8852  0.8852   9.837 0.0106 *
time             1 0.7726  0.7726   8.586 0.0150 *
I(treat * time)  1 0.0326  0.0326   0.362 0.5606  
Residuals       10 0.8998  0.0900                 
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

> summary( aov(value ~ 1 + I(treat*time) + treat + time, data=data) )

                Df Sum Sq Mean Sq F value  Pr(>F)   
I(treat * time)  1 1.3144  1.3144  14.606 0.00336 **
treat            1 0.1321  0.1321   1.469 0.25343   
time             1 0.2439  0.2439   2.710 0.13072   
Residuals       10 0.8998  0.0900                   
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

> # This is an often forgotten quirck 
> # best is to use manual comparisons such that you know
> # and understand your hypotheses
> # (which is often forgotten in the click and
> #     point anova modelling tools)
> #
> # anova(model1, model2) 
> #     or use 
> # stepAIC from the MASS library
Sexto Empírico
fuente