Considere un experimento con múltiples participantes humanos, cada uno medido varias veces en dos condiciones. Se puede formular un modelo de efectos mixtos (usando la sintaxis lme4 ) como:
fit = lmer(
formula = measure ~ (1|participant) + condition
)
Ahora, digamos que quiero generar intervalos de confianza de arranque para las predicciones de este modelo. Creo que se me ocurrió un método simple y computacionalmente eficiente, y estoy seguro de que no soy el primero en pensarlo, pero tengo problemas para encontrar publicaciones anteriores que describan este enfoque. Aquí está:
- Ajuste el modelo (como arriba), llame a esto el "modelo original"
- Obtenga predicciones del modelo original, llámelas "predicciones originales"
- Obtenga los residuos del modelo original asociado con cada respuesta de cada participante.
- Vuelva a muestrear los residuos, muestreando a los participantes con reemplazo
- Ajuste un modelo de efectos mixtos lineales con error gaussiano a los residuos , llame a esto el "modelo provisional"
- Calcule predicciones del modelo provisional para cada condición (estas predicciones serán muy cercanas a cero), llámelas "predicciones provisionales"
- Agregue las predicciones provisionales a las predicciones originales, llame al resultado las "predicciones de remuestreo"
- Repita los pasos del 4 al 7 muchas veces, generando una distribución de predicciones de remuestreo para cada condición a partir de la cual una vez puede calcular los CI.
He visto procedimientos de "arranque residual" en el contexto de una regresión simple (es decir, no un modelo mixto) donde los residuos se muestrean como la unidad de remuestreo y luego se agregan a las predicciones del modelo original antes de ajustar un nuevo modelo en cada iteración de el bootstrap, pero esto parece bastante diferente del enfoque que describo donde los residuos nunca se vuelven a muestrear, las personas lo son, y solo despuésel modelo provisional se obtiene cuando entran en juego las predicciones del modelo original. Esta última característica tiene un beneficio adicional realmente bueno, ya que no importa la complejidad del modelo original, el modelo intermedio siempre se puede adaptar como un modelo mixto lineal gaussiano, que puede ser sustancialmente más rápido en algunos casos. Por ejemplo, recientemente tuve datos binomiales y 3 variables predictoras, una de las cuales sospeché que causaría efectos fuertemente no lineales, por lo que tuve que emplear el Modelado mixto aditivo generalizado usando una función de enlace binomial. El ajuste del modelo original en este caso llevó más de una hora, mientras que el ajuste del LMM gaussiano en cada iteración tomó solo unos segundos.
Realmente no quiero reclamar prioridad sobre esto si ya es un procedimiento conocido, por lo que estaría muy agradecido si alguien puede proporcionar información sobre dónde podría haberse descrito antes. (Además, si hay algún problema evidente con este enfoque, ¡hágamelo saber!)
fuente
Respuestas:
Mi libro Bootstrap Methods 2nd Edition tiene una bibliografía masiva hasta 2007. Por lo tanto, incluso si no cubro el tema en el libro, la referencia podría estar en la bibliografía. Por supuesto, una búsqueda en Google con las palabras clave correctas podría ser mejor. Freedman, Peters y Navidi hicieron bootstrapping para la predicción en regresión lineal y modelos econométricos, pero no estoy seguro de lo que se ha hecho en el caso del modelo mixto. Los intervalos de predicción de Bootstrap en papel de JASA de 1985 de Stine para la regresión es algo que encontrará muy interesante si aún no lo ha visto.
fuente