Un metanálisis incluye un grupo de estudios, todos los cuales informaron un valor de P mayor que 0.05. ¿Es posible que el metanálisis general informe un valor de P menor que 0.05? ¿Bajo que circunstancias?
(Estoy bastante seguro de que la respuesta es sí, pero me gustaría una referencia o explicación).
statistical-significance
meta-analysis
combining-p-values
Harvey Motulsky
fuente
fuente
Respuestas:
En teoría, sí ...
Los resultados de los estudios individuales pueden ser insignificantes pero vistos juntos, los resultados pueden ser significativos.
En teoría se puede proceder mediante el tratamiento de los resultadosyi de estudio i como cualquier otra variable aleatoria.
Sea alguna variable aleatoria (por ejemplo, la estimación del estudio i ). Entonces, si y i son independientes y E [ y i ] = μ , puede estimar consistentemente la media con:yi i yi E[yi]=μ
Agregando más supuestos, supongamos que es la varianza de la estimación y i . Entonces puede estimar eficientemente μ con ponderación de varianza inversa:σ2i yi μ
En cualquiera de estos puede ser estadísticamente significativa en algún nivel de confianza, incluso si las estimaciones individuales no lo son.μ^
PERO puede haber grandes problemas, cuestiones a tener en cuenta ...
Si entonces el metanálisis puede no converger a μ (es decir, la media del metanálisis es un estimador inconsistente).E[yi]≠μ μ
Por ejemplo, si hay un sesgo en contra de publicar resultados negativos, ¡este simple metanálisis puede ser terriblemente inconsistente y sesgado! ¡Sería como estimar la probabilidad de que una moneda arroje cara solo observando las tiradas donde no arrojó colas!
y y j pueden no ser independientes. Por ejemplo, si dos estudios i y j se basaron en los mismos datos, entonces tratar y i e y j como independientes en el metanálisis puede subestimar enormemente los errores estándar y exagerar la significación estadística. Sus estimaciones seguirían siendo consistentes, pero los errores estándar deben explicar razonablemente la correlación cruzada en los estudios.yi yj i j yi yj
Combinar (1) y (2) puede ser especialmente malo.
Por ejemplo, el metanálisis de promediar encuestas en conjunto tiende a ser más preciso que cualquier encuesta individual. Pero promediar encuestas juntas sigue siendo vulnerable a errores correlacionados. Algo que ha surgido en elecciones pasadas es que los jóvenes trabajadores electorales de salida pueden tender a entrevistar a otros jóvenes en lugar de a personas mayores. Si todas las encuestas de salida cometen el mismo error, entonces tiene una mala estimación que puede considerar una buena estimación (las encuestas de salida están correlacionadas porque usan el mismo enfoque para realizar encuestas de salida y este enfoque genera el mismo error).
Indudablemente, las personas más familiarizadas con el metanálisis pueden encontrar mejores ejemplos, problemas más matizados, técnicas de estimación más sofisticadas, etc., pero esto llega a algunas de las teorías más básicas y algunos de los problemas más grandes. Si los diferentes estudios cometen un error aleatorio independiente, entonces el metanálisis puede ser increíblemente poderoso. Si el error es sistemático en todos los estudios (por ejemplo, todos cuentan menos que los votantes mayores, etc.), entonces el promedio de los estudios también estará apagado. Si subestima la correlación de los estudios o la correlación de los errores, efectivamente sobreestima el tamaño de la muestra agregada y subestima los errores estándar.
También hay todo tipo de cuestiones prácticas de definiciones consistentes, etc.
fuente
Sí. Suponga que tiene valores p de N estudios independientes.N N
Prueba de Fisher
(EDITAR - en respuesta al comentario útil de @ mdewey a continuación, es relevante distinguir entre diferentes meta pruebas. Expongo el caso de otra meta prueba mencionada por mdewey a continuación)
La estadística clásica de la meta prueba de Fisher (véase Fisher (1932), "Métodos estadísticos para investigadores" ) tiene una distribución nula χ 2 2 N , como - 2 ln ( U ) ~ χ 2 2 para un RV uniforme T .
Deje denotar el ( 1 - α ) -cuantil de la distribución nula.χ22N(1−α) (1−α)
Supongamos que todos los valores de p son iguales a , donde, posiblemente, c > α . Entonces, F = - 2 N ln ( c ) y F > χ 2 2 N ( 1 - α ) cuando c < exp ( - χ 2 2 N ( 1 - α )c c>α F=−2Nln(c) F>χ22N(1−α)
Por ejemplo, paraα=0.05yN=20, losvalorespindividualessolo necesitan ser menores que
Por supuesto, lo que las pruebas metaestadísticas son "solo" el nulo "agregado" de que todos los nulos individuales son verdaderos, lo que debe rechazarse tan pronto como uno de los nulos sea falso.N
EDITAR:
Aquí hay una gráfica de los valores p "admisibles" contra , que confirma que c crece en N , aunque parece nivelarse en c ≈ 0.36 .N c N c≈0.36
He encontrado un límite superior para los cuantiles de la distribución χ 2 2 N ( 1 - α ) ≤ 2 N + 2 log ( 1 / α ) + 2 √χ2 aquí, sugiriendo queχ 2 2 N (1-α)=O(N)para que
exp ( - χ 2 2 N ( 1 - α )
Prueba normal inversa (Stouffer et al., 1949)
La estadística de prueba viene dada por
fuente
El método de LHC Tippett se describe en un libro Los métodos de estadística. 1931 (1ª ed.) Y el método de Wilkinson está aquí en un artículo "Una consideración estadística en la investigación psicológica"
fuente