Contexto:
Mi pregunta se refiere a un diseño típico en mi área: un investigador toma un grupo de sujetos (digamos 10) y luego les aplica tres condiciones diferentes para medir el cambio en una variable de respuesta, por ejemplo, altura de salto vertical realizada después de beber una bebida de glucosa, coloreada agua corriente y jugo de fruta (digamos). Cada sujeto tiene todos los tratamientos, pero en un orden aleatorio con tiempo suficiente para que los efectos se "borren".
Análisis:
Kuehl (2000) (Kuehl, RO (2009) Diseño de experimentos: principios estadísticos de diseño y análisis de investigación, Duxbury Press, CA, p497 2ª ed.) Afirma:
Cuando cada uno de los tratamientos se administra en un orden aleatorio a cada sujeto ... entonces los sujetos son bloques al azar en un diseño de bloques completos al azar "
y luego muestra el análisis correspondiente.
En este caso, el sujeto es un efecto aleatorio, pero un factor molesto o de bloqueo, y aunque nuestro modelo estadístico probará la importancia del factor de bloqueo, no estamos realmente interesados en su importancia. Sin embargo, muchos investigadores (¡y revisores!) Piensan que dicho diseño debería analizarse como un diseño de medidas repetidas con una prueba de Mauchly para la condición de Huynh-Feldt (con el tratamiento como la medida repetida). Sin embargo, esto parece más apropiado cuando se analiza un factor de tiempo, por ejemplo, cuando las observaciones se toman a los 0 minutos, 10 minutos, 30 minutos y 60 minutos, por ejemplo. En este caso, se podría esperar que la covarianza entre pares de puntos temporales cambie, particularmente cuando se utilizan intervalos de tiempo desiguales. [De hecho, uso SAS para modelar diferentes estructuras de covarianza en este caso (p. Ej.
Comprendí que cuando el sujeto es un factor de bloque, y los diferentes tratamientos se administran en un orden aleatorio que es diferente para diferentes sujetos, esto significa que la correlación entre las observaciones es diferente para cada sujeto, por lo que se puede suponer una simetría compuesta.
Pregunta:
- ¿Cómo deben analizarse los ANOVA de medidas repetidas con 3 o más condiciones presentadas en orden aleatorio?
- ¿Es razonable suponer una simetría compuesta?
fuente
Respuestas:
Las medidas repetidas son una especie de término sobrecargado. Para algunas personas se refiere a un método de análisis estadístico particular; a otros se refiere a la estructura del diseño.
Esta es una variante en un diseño cruzado de tres períodos y tres tratamientos.
Es una variante porque, por lo general, en un diseño cruzado, se asignan al azar los sujetos a secuencias. En este caso, la secuencia se determina aleatoriamente para cada sujeto. Como hay seis secuencias posibles, puede ser que algunas secuencias no se observen, especialmente con 10 sujetos. Tal vez esto sea formalmente lo mismo que aleatorizar sujetos a secuencias, pero aún no lo he visto.
Las consideraciones para los diseños cruzados son:
Efectos de arrastre : también conocidos como efectos residuales, donde el tratamiento previo puede afectar la respuesta al tratamiento actual. El objetivo de los períodos de lavado es eliminar esto de la consideración. También podría tener (en teoría) efectos residuales de segundo orden, donde el tratamiento administrado en el primer período afecta potencialmente la respuesta al tratamiento administrado en el tercer período.
Efectos del período : la respuesta a los tratamientos puede cambiar a medida que el estudio continúa para un tema determinado.
Autocorrelación: la correlación en serie en los errores suele ser un problema con datos medidos más de cerca. En diseños simples equilibrados, tener un efecto aleatorio para el sujeto implicará una correlación igual de errores de cada sujeto.
Efectos del sujeto : los sujetos pueden diferir en la respuesta media entre sí, independientemente de los tratamientos. Podría concebir una situación en la que el error de medición se correlacionara en serie por separado del efecto de un sujeto aleatorio.
Efecto de secuencia : en los casos en que se asignan al azar sujetos a secuencias, los sujetos se consideran anidados en secuencia.
Un análisis mínimo para esto sería el diseño de bloque completo aleatorizado sugerido. Es decir, un efecto fijo para el tratamiento y un efecto aleatorio para el sujeto. Con un tamaño de muestra escaso que podría ser todo lo que realmente puede hacer.
Con toneladas de datos, uno podría elaborar términos que permitirían estimar varios efectos de arrastre específicos. Mis notas sobre esto se han ido, aunque sé que lo he visto en algunos textos.
La estrategia de modelar adicionalmente la estructura de correlación en el lado R me parece razonable. Eso permite afirmar que se está manejando la posible estructura de dependencia inducida por medidas repetidas sobre el mismo tema, lo que probablemente también afirmaría sobre el efecto aleatorio para el sujeto si el análisis se transfiere a ese nivel ... También es bueno si varios Las estrategias de análisis proporcionan resultados generales o muy similares.
Para la implementación, usaría
PROC MIXED
inSAS
y probablementenlme
olme4
inR
.Voy a puntualizar la cuestión de la simetría compuesta, ya que parece más un remanente de los días en que MANOVA era el único análisis "correcto" para medidas repetidas.
fuente