Estoy experimentando con R y descubrí que un anova () necesita un objeto de tipo lm. Pero, ¿por qué debería continuar con una anova después de esto?
> x <- data.frame(rand=rnorm(100), factor=sample(c("A","B","C"),100,replace=TRUE))
> head(x)
rand factor
1 0.9640502 B
2 -0.5038238 C
3 -1.5699734 A
4 -0.8422324 B
5 0.2489113 B
6 -1.4685439 A
> model <- lm(x$rand ~ x$factor))
> summary(model)
Call:
lm(formula = x$rand ~ x$factor)
Residuals:
Min 1Q Median 3Q Max
-2.74118 -0.89259 0.02904 0.59726 3.19762
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -0.1878 0.1845 -1.018 0.311
x$factorB -0.1284 0.2689 -0.477 0.634
x$factorC 0.4246 0.2689 1.579 0.118
Residual standard error: 1.107 on 97 degrees of freedom
Multiple R-squared: 0.04345, Adjusted R-squared: 0.02372
F-statistic: 2.203 on 2 and 97 DF, p-value: 0.1160
Esto me dice todo lo que necesito, ¿o no? Tengo curiosidad por qué quieres continuar con un anova (modelo)
Respuestas:
Veamos qué obtienes cuando realmente utilizas la función anova () (los números son diferentes a los de tu ejemplo, ya que no sé qué semilla usaste para generar los números aleatorios, pero el punto sigue siendo el mismo):
La prueba F para el factor está probando simultáneamente , es decir, la hipótesis de que el factor en general no es significativo. Una estrategia común es probar primero esta hipótesis general antes de desenterrar cuáles de los niveles del factor son diferentes entre sí.H0 0: β1= β2= 0
Además, puede usar la función anova () para pruebas de modelo completo versus reducido. Por ejemplo:
que es una comparación del modelo completo con el factor y dos covariables (y1 e y2) y el modelo reducido, donde suponemos que las pendientes de las dos covariables son ambas simultáneamente iguales a cero.
fuente
summary.aov(lm(...))
oanova(lm(...))
no son de particular interés.