Defina el criterio de información bayesiano como (no dejo caer el constante, , para evitar problemas cuando se compara con la probabilidad marginal)
Dados los datos y un modelo , la relación aproximada entre la probabilidad marginal y es que parece implicar
Dado un modelo nulo y alternativo, y respectivamente, la prueba de hipótesis bayesiana para la probabilidad de la alternativa condicional en los datos podría calcularse como donde la probabilidad anterior, para . Mi pregunta es cuándo, si alguna vez, está bien aproximar para la prueba de hipótesis bayesiana. A pesar de la simplicidad de la ecuación anterior, rara vez la he visto utilizada en la práctica, lo que me hace dudar de su confiabilidad como una aproximación.
hypothesis-testing
bayesian
bic
Zachary Blumenfeld
fuente
fuente
Respuestas:
Usted puede construir una aproximación asintótica simplemente tal, pero tenga en cuenta que puede volver a escribir en términos de la diferencia a partir de (digamos) (o de hecho cualquier constante conveniente). Esto puede ayudar a evitar problemas de subdesbordamiento o desbordamiento al exponer números que pueden estar muy lejos de 0.B IC0 0
Tenga en cuenta además que (usando un enfoque similar al que usó) se generaliza a una colección más grande de modelos alternativos que solo dos.
Sin embargo, no lo llamaría "prueba de hipótesis"; En mi opinión, está más cerca de la selección del modelo bayesiano, pero ocurre más a menudo en un contexto relacionado pero ligeramente diferente. (No me importa, sin embargo, otras personas se han referido a él o algo muy parecido como prueba de hipótesis, probablemente pueda encontrar varios ejemplos entre las referencias en los enlaces a continuación y en otros lugares).
Es (o una forma ligeramente reescrita) es una aproximación que he visto con frecuencia (supongo que depende de las cosas que leas), y produce una probabilidad posterior aproximada de los modelos en consideración (bajo un conjunto particular de supuestos).
Ocurre particularmente a menudo en el contexto de discusiones sobre el promedio del modelo o la incertidumbre del modelo , donde en lugar de elegir un modelo en particular y condicionar esa opción, todos los modelos * son ponderados por su probabilidad posterior, para (por ejemplo) producir un distribución de predicciones.
* o, a veces, solo un subconjunto de los modelos con las probabilidades posteriores más altas, a menudo como una aproximación de un conjunto general, pero a veces extremadamente grande. (ver también la ventana de Occam )
Si busca en el promedio de modelos bayesianos y BIC , debería ser capaz de encontrar bastantes referencias (nombres como Hoeting, Raftery o Madigan están en algunos de los documentos, pero muchos otros autores escriben sobre estas cosas); Si no puede encontrar ninguno, puedo señalar algunos.
Solo como un ejemplo, en Raftery [1], ecuación 35, él usa tal expresión como la que tienes arriba pero generalizada a modelos.k
Pruebe estos enlaces, que tienen varios documentos que hacen algo similar a lo que usted describe (para el primer enlace, no puedo cargar el original, así que he pasado a la última versión en archive.org):
https://web.archive.org/web/20150925053749/http://www2.research.att.com/~volinsky/bma.html
http://www.stat.washington.edu/raftery/Research/bma.html
(no todos los enlaces en esas páginas serán necesariamente lo que buscas, pero cada uno tendrá muchos documentos relacionados).
[1] Raftery, AE (1995).
"Selección de modelo bayesiano en investigación social (con discusión)".
Metodología sociológica , 25, 111-196.
fuente