Digamos que tenemos que GLMMs
mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)
Estos modelos no están anidados en el sentido habitual de:
a <- glmer(y ~ x + A + (1|g), data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)
por lo que no podemos hacer anova(mod1, mod2)
lo que haría con anova(a ,b)
.
¿Podemos usar AIC para decir cuál es el mejor modelo?
fuente
Como referencia, un argumento en contra: Brian Ripley afirma en "Seleccionar entre grandes clases de modelos" págs. 6-7
Ripley, BD 2004. "Selección entre grandes clases de modelos". En Methods and Models in Statistics , editado por N. Adams, M. Crowder, D. J Hand y D. Stephens, 155–70. Londres, Inglaterra: Imperial College Press.
Akaike, H. (1973) Teoría de la información y una extensión del principio de máxima verosimilitud. En el segundo simposio internacional sobre teoría de la información (Eds BN Petrov y F. Cáski), págs. 267–281, Budapest. Akademiai Kaidó. Reimpreso en Breakthroughs in Statistics , eds Kotz, S. & Johnson, NL (1992), volumen I, págs. 599-624. Nueva York: Springer.
fuente
Parece que Akaike pensó que AIC era una herramienta útil para comparar modelos no anidados.
(Akaike 1985, pág. 399)
Akaike, Hirotugu. "Predicción y entropía". Papeles seleccionados de Hirotugu Akaike. Springer, Nueva York, NY, 1985. 387-410.
fuente