Estoy realizando pruebas estadísticas independientes con la misma hipótesis nula, y me gustaría combinar los resultados en un valor . Parece que hay dos métodos "aceptados": el método de Fisher y el método de Stouffer .p
Mi pregunta es sobre el método de Stouffer. Para cada prueba por separado puntaje z . Bajo la hipótesis nula, cada una de ellas se distribuye con una distribución normal estándar, por lo que la suma sigue una distribución normal con varianza . Por lo tanto, el método de Stouffer sugiere calcular , que normalmente debería distribuirse con la varianza de la unidad, y luego usar esto como una puntuación z conjunta. Σ z i N Σ z i / √
Esto es razonable, pero aquí hay otro enfoque que se me ocurrió y que también me parece razonable. Como cada uno de proviene de una distribución normal estándar, la suma de cuadrados debe provenir de una distribución chi-cuadrado con grados de libertad. Entonces uno puede calcular y convertirlo en un valor usando la función de distribución chi-cuadrado acumulativa con grados de libertad ( , donde X_N es el CDF). S = Σ z 2 i N S p N p = 1 - X N ( S ) X N
Sin embargo, en ninguna parte puedo encontrar este enfoque, incluso mencionado. ¿Se usa alguna vez? Eso tiene un nombre? ¿Cuáles serían las ventajas / desventajas en comparación con el método de Stouffer? ¿O hay un defecto en mi razonamiento?
fuente
Respuestas:
Una falla que salta a la vista es que el método de Stouffer puede detectar cambios sistemáticos en , que es lo que uno esperaría que suceda cuando una alternativa es consistentemente cierta, mientras que el método de chi-cuadrado parece tener menos poder para hacerlo. Una simulación rápida muestra que este es el caso; El método chi-cuadrado es menos potente para detectar una alternativa unilateral. Aquí hay histogramas de los valores p por ambos métodos (rojo = Stouffer, azul = chi-cuadrado) para iteraciones independientes con y varios efectos estandarizados unilaterales van desde ninguno ( ) a través de SD ( ).10 5 N = 10 μ μ = 0 0.6 μ = 0.6zyo 105 5 norte= 10 μ μ = 0 0.6 μ = 0.6
El mejor procedimiento tendrá más área cercana a cero. Para todos los valores positivos de mostrados, ese procedimiento es el procedimiento Stouffer.μ
Código R
Esto incluye el método de Fisher (comentado) para la comparación.
fuente
R
simulación para probar esto. Sería una buena manera de presentarse a esta plataforma de computación estadística. :-)Una forma general de obtener información sobre las estadísticas de prueba es derivar los supuestos subyacentes (generalmente implícitos) que llevarían a esa estadística de prueba a ser más poderosa. Para este caso particular, un estudiante y yo hemos hecho esto recientemente: http://arxiv.org/abs/1111.1210v2 (una versión revisada aparecerá en Annals of Applied Statistics).
Para resumir muy brevemente (y de acuerdo con los resultados de la simulación en otra respuesta), el método de Stouffer será más poderoso cuando los efectos subyacentes "verdaderos" sean todos iguales; la suma de Z ^ 2 será más potente cuando los efectos subyacentes se distribuyan normalmente alrededor de 0. Esta es una ligera simplificación que omite detalles: consulte la sección 2.5 en la preimpresión arxiv vinculada anteriormente para obtener más detalles.
fuente
Ligeramente t / t: uno de los problemas con estos dos enfoques es la pérdida de poder debido a los grados de libertad (N para stouffer's; 2N para Fisher). Se han desarrollado mejores enfoques metaanalíticos para esto, que es posible que desee considerar (metaanálisis ponderado de varianza inversa, por ejemplo).
Si está buscando evidencia de algunas pruebas alternativas dentro de un grupo, es posible que desee ver la estadística más crítica de Donoho y Jin: https://projecteuclid.org/euclid.aos/1085408492
fuente
Para responder a la pregunta y para cualquier otro lector: ¿se ha usado alguna vez ?, hay un documento exhaustivo de Cousins (2008) sobre arXiv, que enumeró y revisó un par de enfoques alternativos. La propuesta no parece aparecer.
fuente