Andrew Gelman escribió un extenso artículo sobre por qué las pruebas de AB Bayesianas no requieren corrección de hipótesis múltiples: Por qué (generalmente) no tenemos que preocuparnos por las comparaciones múltiples , 2012.
No entiendo bien: ¿por qué los métodos bayesianos no requieren múltiples correcciones de prueba?
A ~ Distribution1 + Common Distribution
B ~ Distribution2 + Common Distribution
C ~ Distribution3 + Common Distribution
Common Distribution ~ Normal
Tengo entendido que el enfoque bayesiano que se muestra arriba explica la distribución subyacente compartida por todas las hipótesis (a diferencia de una corrección de Bonferroni frecuente). ¿Es correcto mi razonamiento?
hypothesis-testing
bayesian
multiple-comparisons
ameba dice Reinstate Monica
fuente
fuente
Respuestas:
Una forma extraña de responder a la pregunta es observar que el método bayesiano no proporciona ninguna forma de hacerlo porque los métodos bayesianos son consistentes con las reglas de evidencia aceptadas y los métodos frecuentistas a menudo están en desacuerdo con ellos. Ejemplos:
El problema surge de la reversión del flujo de tiempo e información por parte de los frecuentistas, lo que hace que los frecuentadores tengan que considerar qué pudo haber sucedido en lugar de lo que sucedió . En contraste, las evaluaciones bayesianas anclan todas las evaluaciones a la distribución previa, que calibra la evidencia. Por ejemplo, la distribución previa de la diferencia AB calibra todas las evaluaciones futuras de AB y no tiene que considerar el CD.
Con las pruebas secuenciales, existe una gran confusión acerca de cómo ajustar las estimaciones puntuales cuando un experimento se termina temprano usando inferencia frecuentista. En el mundo bayesiano, el "retroceso" previo en cualquier estimación puntual, y la distribución posterior actualizada se aplica a la inferencia en cualquier momento y no requiere consideraciones complejas de espacio muestral.
fuente
Este tipo de modelo jerárquico reduce las estimaciones y reduce el número de afirmaciones falsas en un grado razonable para un número pequeño o moderado de hipótesis. ¿Garantiza algún tipo específico de tasa de error I? No.
Esta sugerencia particular de Gelman (que reconoce el problema de mirar demasiadas cosas diferentes y luego, con demasiada facilidad, concluye erróneamente que ves algo para algunas de ellas, de hecho, uno de sus temas favoritos en su blog) es diferente de la alternativa extrema punto de vista que sostiene que los métodos bayesianos no necesitan dar cuenta de la multiplicidad, porque lo único que importa es su probabilidad (y su anterior).
fuente
Pregunta muy interesante, aquí está mi opinión al respecto.
Se trata de codificar información, luego girar la manivela bayesiana. Parece demasiado bueno para ser verdad, pero ambos son más difíciles de lo que parecen.
Empiezo haciendo la pregunta
¿Qué información se utiliza cuando nos preocupamos por las comparaciones múltiples?
Puedo pensar en algunos: el primero es el "dragado de datos": pruebe "todo" hasta que obtenga suficientes pases / fallas (creo que casi todas las personas capacitadas en estadísticas estarían expuestas a este problema). También tiene menos siniestro, pero esencialmente el mismo "Tengo tantas pruebas que ejecutar, seguramente no todas pueden ser correctas".
Después de pensar en esto, una cosa que noto es que no sueles escuchar mucho sobre hipótesis específicas o comparaciones específicas. Se trata de la "colección" - esto desencadena mi pensamiento hacia la intercambiabilidad - las hipótesis que se comparan son "similares" entre sí de alguna manera. ¿Y cómo codifica la intercambiabilidad en el análisis bayesiano? - hiper-priors, modelos mixtos, efectos aleatorios, etc.
Pero la intercambiabilidad solo te lleva a una parte del camino. ¿Es todo intercambiable? ¿O tiene "escasez", como solo unos pocos coeficientes de regresión distintos de cero con un gran grupo de candidatos. Los modelos mixtos y los efectos aleatorios normalmente distribuidos no funcionan aquí. Se "atascan" entre el ruido de aplastamiento y dejan las señales intactas (p. Ej., En su ejemplo, mantengan iguales los parámetros "verdaderos" locationB y locationC, y establezcan el parámetro "verdadero" locationA arbitrariamente grande o pequeño, y vean fallar el modelo mixto lineal estándar). . Pero se puede arreglar, por ejemplo, con anteriores de "punta y losa" o anteriores de "herradura".
Por lo tanto, realmente se trata más de describir de qué tipo de hipótesis está hablando y obtener tantas características conocidas reflejadas en lo anterior y en la probabilidad. El enfoque de Andrew Gelman es solo una forma de manejar una amplia clase de comparaciones múltiples implícitamente. Al igual que los mínimos cuadrados y las distribuciones normales tienden a funcionar bien en la mayoría de los casos (pero no en todos).
En términos de cómo hace esto, se podría pensar en una persona razonando de la siguiente manera: el grupo A y el grupo B podrían tener la misma media: miré los datos y los medios están "cercanos". Por lo tanto, para obtener una mejor estimación para ambos, debería agrupar los datos, ya que mi pensamiento inicial fue que tienen la misma media. - Si no son lo mismo, los datos proporcionan evidencia de que están "cerca", por lo que agrupar "un poco" no me perjudicará demasiado si mi hipótesis es incorrecta (todos los modelos son incorrectos, algunos son útiles)
Tenga en cuenta que todo lo anterior depende de la premisa inicial "podrían ser lo mismo". Quítelo y no hay justificación para la agrupación. Probablemente también pueda ver una forma de "distribución normal" de pensar en las pruebas. "Cero es más probable", "si no es cero, entonces próximo a cero es lo más probable", "los valores extremos son poco probables". Considere esta alternativa:
Entonces el argumento sobre la agrupación "un poco" es una muy mala idea. Es mejor elegir la agrupación total o la agrupación cero. Mucho más parecido a un Cauchy, espiga y losa, tipo de situación (mucha masa alrededor de cero y mucha masa para valores extremos)
No es necesario abordar todas las comparaciones múltiples, porque el enfoque bayesiano está incorporando la información que nos lleva a preocuparnos por lo anterior y / o la probabilidad . En cierto sentido, es más un recordatorio para pensar adecuadamente sobre qué información está disponible para usted y asegurarse de haberla incluido en su análisis.
fuente
Primero, según entiendo el modelo que presentó, creo que es un poco diferente a la propuesta de Gelman, que se parece más a:
En la práctica, al agregar este
commonLocation
parámetro, las inferencias sobre los parámetros de las 3 distribuciones (aquí las ubicaciones 1, 2 y 3) ya no son independientes entre sí. Además,commonLocation
tiende a reducir los valores de expectativa de los parámetros hacia uno central (generalmente estimado). En cierto sentido, funciona como una regularización sobre todas las inferencias, lo que hace que no sea necesaria la corrección para la corrección múltiple (ya que en la práctica realizamos una sola contabilidad de estimación multivariada a partir de la interacción entre cada una de ellas mediante el uso del modelo).Como se señaló en la otra respuesta, esta corrección no ofrece ningún control sobre el error tipo I, pero en la mayoría de los casos, el método bayesiano no ofrece ningún control incluso en la escala de inferencia única y la corrección para la comparación múltiple debe pensarse de manera diferente en el Bayesiano ajuste.
fuente