Entiendo que usamos modelos de efectos aleatorios (o efectos mixtos) cuando creemos que algunos parámetros del modelo varían aleatoriamente a través de algún factor de agrupación. Deseo ajustar un modelo donde la respuesta se haya normalizado y centrado (no perfectamente, pero bastante cerca) en un factor de agrupación, pero una variable independiente x
no se ha ajustado de ninguna manera. Esto me llevó a la siguiente prueba (usando datos fabricados ) para asegurarme de que encontraría el efecto que estaba buscando si realmente estuviera allí. Ejecuté un modelo de efectos mixtos con una intercepción aleatoria (en todos los grupos definidos por f
) y un segundo modelo de efectos fijos con el factor f como predictor de efectos fijos. Usé el paquete R lmer
para el modelo de efectos mixtos y la función baselm()
para el modelo de efectos fijos. Los siguientes son los datos y los resultados.
Tenga en cuenta que y
, independientemente del grupo, varía alrededor de 0. Y eso x
varía de manera consistente y
dentro del grupo, pero varía mucho más entre grupos quey
> data
y x f
1 -0.5 2 1
2 0.0 3 1
3 0.5 4 1
4 -0.6 -4 2
5 0.0 -3 2
6 0.6 -2 2
7 -0.2 13 3
8 0.1 14 3
9 0.4 15 3
10 -0.5 -15 4
11 -0.1 -14 4
12 0.4 -13 4
Si está interesado en trabajar con los datos, aquí está la dput()
salida:
data<-structure(list(y = c(-0.5, 0, 0.5, -0.6, 0, 0.6, -0.2, 0.1, 0.4,
-0.5, -0.1, 0.4), x = c(2, 3, 4, -4, -3, -2, 13, 14, 15, -15,
-14, -13), f = structure(c(1L, 1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L,
4L, 4L, 4L), .Label = c("1", "2", "3", "4"), class = "factor")),
.Names = c("y","x","f"), row.names = c(NA, -12L), class = "data.frame")
Ajuste del modelo de efectos mixtos:
> summary(lmer(y~ x + (1|f),data=data))
Linear mixed model fit by REML
Formula: y ~ x + (1 | f)
Data: data
AIC BIC logLik deviance REMLdev
28.59 30.53 -10.3 11 20.59
Random effects:
Groups Name Variance Std.Dev.
f (Intercept) 0.00000 0.00000
Residual 0.17567 0.41913
Number of obs: 12, groups: f, 4
Fixed effects:
Estimate Std. Error t value
(Intercept) 0.008333 0.120992 0.069
x 0.008643 0.011912 0.726
Correlation of Fixed Effects:
(Intr)
x 0.000
Observo que el componente de varianza de intercepción se estima en 0 y, lo que x
es más importante para mí, no es un predictor significativo de y
.
A continuación, ajusto el modelo de efectos fijos con f
un predictor en lugar de un factor de agrupación para una intercepción aleatoria:
> summary(lm(y~ x + f,data=data))
Call:
lm(formula = y ~ x + f, data = data)
Residuals:
Min 1Q Median 3Q Max
-0.16250 -0.03438 0.00000 0.03125 0.16250
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.38750 0.14099 -9.841 2.38e-05 ***
x 0.46250 0.04128 11.205 1.01e-05 ***
f2 2.77500 0.26538 10.457 1.59e-05 ***
f3 -4.98750 0.46396 -10.750 1.33e-05 ***
f4 7.79583 0.70817 11.008 1.13e-05 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 0.1168 on 7 degrees of freedom
Multiple R-squared: 0.9484, Adjusted R-squared: 0.9189
F-statistic: 32.16 on 4 and 7 DF, p-value: 0.0001348
Ahora noto que, como se esperaba, x
es un predictor significativo de y
.
Lo que estoy buscando es intuición con respecto a esta diferencia. ¿De qué manera mi pensamiento está mal aquí? ¿Por qué incorrectamente espero encontrar un parámetro significativo para x
ambos modelos, pero solo lo veo en el modelo de efectos fijos?
x
variable no sea significativa. Sospecho que es el mismo resultado (coeficientes y SE) que hubieras conseguido ejecutarlm(y~x,data=data)
. No tengo más tiempo para diagnosticar, pero quería señalarlo.Respuestas:
Hay varias cosas pasando aquí. Estos son temas interesantes, pero tomará bastante tiempo / espacio explicarlo todo.
En primer lugar, todo esto se vuelve mucho más fácil de entender si trazamos los datos . Aquí hay un diagrama de dispersión donde los puntos de datos están coloreados por grupo. Además, tenemos una línea de regresión específica de grupo separada para cada grupo, así como una línea de regresión simple (ignorando grupos) en negrita discontinua:
El modelo de efectos fijos.
lm()
es el promedio de las 4 líneas de regresión dentro del clúster, todas las cuales son relativamente empinadas en este caso.El modelo mixto
Estos son los coeficientes para el modelo de regresión simple (la línea punteada en negrita en la gráfica):
Como puede ver, los coeficientes aquí son idénticos a los que obtuvimos en el modelo mixto. Esto es exactamente lo que esperábamos encontrar, ya que, como ya notó, tenemos una estimación de la varianza 0 para las intercepciones aleatorias, lo que hace que la relación / correlación intraclase mencionada anteriormente sea 0. Entonces, las estimaciones del modelo mixto en este caso son solo el estimaciones de regresión lineal simples, y como podemos ver en la gráfica, la pendiente aquí es mucho menos pronunciada que las pendientes dentro del grupo.
Esto nos lleva a una cuestión conceptual final ...
¿Por qué se estima que la varianza de las intersecciones aleatorias es 0?
La respuesta a esta pregunta tiene el potencial de volverse un poco técnica y difícil, pero trataré de mantenerla lo más simple y no técnica posible (¡por el bien de ambos!). Pero tal vez todavía sea un poco largo.
El modelo mixto que estamos considerando no está utilizando el método de correlación intraclase para representar la dependencia en los datos. En cambio, describe la dependencia en términos de componentes . Todo esto está bien siempre que la correlación intraclase sea positiva. En esos casos, la correlación intraclase se puede escribir fácilmente en términos de componentes de varianza, específicamente como la relación mencionada anteriormente de la varianza de intercepción aleatoria a la varianza total. (Vea la página wiki sobre correlación intraclase de varianza para obtener más información sobre esto.) Pero desafortunadamente, los modelos de componentes de varianza tienen dificultades para lidiar con situaciones en las que tenemos una correlación negativa dentro de la clase. Después de todo, escribir la correlación intraclase en términos de los componentes de la varianza implica escribirla como una proporción de la varianza, y las proporciones no pueden ser negativas.
Entonces, ¿qué podemos hacer?
Finalmente, todavía tenemos una estimación de 0 para la varianza de las intersecciones aleatorias, por las razones que expliqué en la sección anterior. No estoy realmente seguro de lo que podemos hacer al respecto al menos sin cambiar a otro software que no sea
lmer()
, y tampoco estoy seguro de hasta qué punto esto va a afectar negativamente nuestras estimaciones en este modelo mixto final. Quizás otro usuario pueda intervenir con algunas ideas sobre este problema.Referencias
fuente
lme
restringe por defecto sea> = 0? Vea esta pregunta y su respuesta seleccionada , es decir, ajustando una correlación de simmetría compuesta a través de ungls
ajuste o ajustecorrelation = corCompSymm(form = ~1|f)
enlme
Después de considerable contemplación, creo haber descubierto mi propia respuesta. Creo que un econométrico definiría mi variable independiente como endógena y, por lo tanto, estaría correlacionada con las variables independientes y dependientes. En este caso, esas variables se omiten o no se observan . Sin embargo, sí observo las agrupaciones entre las cuales la variable omitida debería variar.
Creo que el econométrico sugeriría un modelo de efectos fijos . Es decir, un modelo que incluye una variable ficticia para cada nivel de agrupación (o una especificación equivalente que condiciona el modelo de modo que no se requieran muchas variables ficticias de agrupación) en este caso. Con un modelo de efectos fijos, la esperanza es que todas las variables no observadas e invariables en el tiempo puedan controlarse condicionando la variación entre grupos (o entre individuos). De hecho, el segundo modelo en mi pregunta es precisamente un modelo de efectos fijos, y como tal da la estimación que espero.
Agradezco los comentarios que iluminarán aún más esta circunstancia.
fuente