Douglas Bates afirma que los siguientes modelos son equivalentes "si la matriz de varianza-covarianza para los efectos aleatorios con valores vectoriales tiene una forma especial, llamada simetría compuesta" ( diapositiva 91 en esta presentación ):
m1 <- lmer(y ~ factor + (0 + factor|group), data)
m2 <- lmer(y ~ factor + (1|group) + (1|group:factor), data)
Específicamente, Bates usa este ejemplo:
library(lme4)
data("Machines", package = "MEMSS")
m1a <- lmer(score ~ Machine + (0 + Machine|Worker), Machines)
m2a <- lmer(score ~ Machine + (1|Worker) + (1|Worker:Machine), Machines)
con las salidas correspondientes:
print(m1a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (0 + Machine | Worker)
Data: Machines
REML criterion at convergence: 208.3112
Random effects:
Groups Name Std.Dev. Corr
Worker MachineA 4.0793
MachineB 8.6253 0.80
MachineC 4.3895 0.62 0.77
Residual 0.9616
Number of obs: 54, groups: Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
print(m2a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (1 | Worker) + (1 | Worker:Machine)
Data: Machines
REML criterion at convergence: 215.6876
Random effects:
Groups Name Std.Dev.
Worker:Machine (Intercept) 3.7295
Worker (Intercept) 4.7811
Residual 0.9616
Number of obs: 54, groups: Worker:Machine, 18; Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
¿Alguien puede explicar la diferencia entre los modelos y cómo se m1
reduce a m2
(simetría compuesta dada) de una manera intuitiva?
r
anova
mixed-model
repeated-measures
lme4-nlme
statmerkur
fuente
fuente
lme4
sintaxis. Sería útil, y ampliar el grupo de posibles respondedores, si se los explicara a personas que no están familiarizadaslme4
.Respuestas:
En este ejemplo, hay tres observaciones para cada combinación de las tres máquinas (A, B, C) y los seis trabajadores. Usaré para denotar una matriz de identidad n- dimensional y 1 n para denotar un vector n- dimensional de unos. Digamos que y es el vector de observaciones, que supongo que está ordenado por trabajador, luego máquina y luego replicar. Supongamos que μ son los valores esperados correspondientes (por ejemplo, los efectos fijos) y que γ sea un vector de desviaciones específicas del grupo de los valores esperados (por ejemplo, los efectos aleatorios). Condicional a γ , el modelo para y se puede escribir:In n 1n n y μ γ γ y
donde es la varianza "residual".σ2y
Para comprender cómo la estructura de covarianza de los efectos aleatorios induce una estructura de covarianza entre las observaciones, es más intuitivo trabajar con la representación "marginal" equivalente , que se integra sobre los efectos aleatorios . La forma marginal de este modelo es,γ
Aquí, es una matriz de covarianza que depende de la estructura de γ (por ejemplo, los "componentes de varianza" subyacentes a los efectos aleatorios). Me referiré a Σ como la covarianza "marginal".Σ γ Σ
En tu
m1
, los efectos aleatorios se descomponen como:Donde es una matriz de diseño que mapea los coeficientes aleatorios en observaciones, y θ T = [ θ 1 , A , θ 1 , B , θ 1 , C ... θ 6 , A , θ 6 , B , θ 6 , C ] es el vector de 18 dimensiones de coeficientes aleatorios ordenados por el trabajador y luego la máquina, y se distribuye como:Z=I18⊗13 θT=[θ1,A,θ1,B,θ1,C…θ6,A,θ6,B,θ6,C]
AquíΛ es la covarianza de los coeficientes aleatorios. La suposición de simetría compuesta significa que tiene dos parámetros, que llamaré σ θ y τ , y la estructura:Λ σθ τ
(En otras palabras, la matriz de correlación subyacente tiene todos los elementos en el conjunto fuera del diagnóstico con el mismo valor).Λ
La estructura de covarianza marginal inducida por estos efectos aleatorios es , de modo que la varianza de una observación dada es σ 2 θ + τ 2 + σ 2 y y la covarianza entre dos observaciones (separadas) de los trabajadores i , j y máquinas u , v es: c o v ( y i , u , y j , v ) =Σ=Z(I6⊗Λ)ZT σ2θ+τ2+σ2y i,j u,v
Para su
m2
, los efectos aleatorios se descomponen en:Donde Z es como antes, es una matriz de diseño que mapea las intersecciones aleatorias por trabajador en observaciones, ω T = [ ω 1 , A , ω 1 , B , ω 1 , C , ... , ω 6 , A , ω 6 T = [ η 1 , … , η 6 ]X=I6⊗19 ωT=[ω1,A,ω1,B,ω1,C,…,ω6,A,ω6,B,ω6,C] ηT=[η1,…,η6]
m2
m1
assumed compound symmetry (which it doesn't with your call to lmer, because the random effects covariance is unstructured).Brevity is not my strong point: this is all just a long, convoluted way of saying that each model has two variance parameters for the random effects, and are just two different ways of writing of the same "marginal" model.
In code ...
fuente