Una ventaja importante de los modelos de efectos mixtos es que no asumen independencia entre las observaciones, y puede haber observaciones correlacionadas dentro de una unidad o grupo.
Esto se trata de manera concisa en "Estadísticas modernas aplicadas con S" (MASS) en la primera sección del capítulo 10 sobre "Efectos aleatorios y mixtos". V&R muestra un ejemplo con datos de gasolina que comparan ANOVA y lme en esa sección, por lo que es una buena descripción. La función R que se utilizará lme
en el nlme
paquete.
La formulación del modelo se basa en Laird y Ware (1982), por lo que puede referirse a eso como una fuente primaria, aunque ciertamente no es bueno para una introducción.
- Laird, NM y Ware, JH (1982) "Modelos de efectos aleatorios para datos longitudinales", Biometrics, 38, 963–974.
- Venables, WN y Ripley, BD (2002) " Estadísticas modernas aplicadas con S ", 4ª edición, Springer-Verlag.
También puede echar un vistazo al apéndice "Modelos lineales mixtos" (PDF) del "An R and S-PLUS Companion to Regresión aplicada" de John Fox. Y esta conferencia de Roger Levy (PDF) analiza los modelos de efectos mixtos con una distribución normal multivariada.
Un muy buen artículo que explica el enfoque general de los LMM y su ventaja sobre ANOVA es:
Los modelos lineales de efectos mixtos (LMM) generalizan los modelos de regresión para tener componentes similares a los residuales, efectos aleatorios, a nivel de, por ejemplo, personas o elementos y no solo a nivel de observaciones individuales. Los modelos son muy flexibles, por ejemplo, permiten el modelado de diferentes pendientes e intersecciones.
Los LMM funcionan mediante el uso de una función de probabilidad de algún tipo, la probabilidad de que sus datos reciban algún parámetro, y un método para maximizar esto (Estimación de probabilidad máxima; MLE) jugando con los parámetros. MLE es una técnica muy general que permite que muchos modelos diferentes, por ejemplo, los de datos binarios y de conteo, se ajusten a los datos, y se explica en varios lugares, por ejemplo,
Sin embargo, los LMM no pueden manejar datos no gaussianos como datos binarios o recuentos; para eso necesita modelos de efectos mixtos lineales generalizados (GLMM). Una forma de entender esto es primero buscar en los GLM; Ver también Agresti (2007).
fuente
La principal ventaja de LME para analizar datos de precisión es la capacidad de tener en cuenta una serie de efectos aleatorios. En los experimentos de psicología, los investigadores generalmente agregan elementos y / o participantes. No solo las personas son diferentes entre sí, sino que los elementos también difieren (algunas palabras pueden ser más distintivas o memorables, por ejemplo). Ignorar estas fuentes de variabilidad generalmente conduce a subestimar la precisión (por ejemplo, valores d 'más bajos). Aunque el problema de la agregación de los participantes puede tratarse de alguna manera con la estimación individual, los efectos de los ítems todavía están allí y, por lo general, son mayores que los efectos de los participantes. LME no solo le permite abordar ambos efectos aleatorios simultáneamente, sino también agregarles variables predictivas adicionales específicas (edad, nivel educativo, longitud de palabra, etc.).
Una muy buena referencia para las LME, especialmente enfocadas en los campos de la lingüística y la psicología experimental, es el Análisis de Datos Lingüísticos: Una Introducción Práctica a la Estadística usando R
salud
fuente