Tengo problemas para comprender en qué situación el enfoque MCMC es realmente útil. Estoy revisando un ejemplo de juguete del libro de Kruschke "Haciendo análisis de datos bayesianos: un tutorial con R y BUGS".
Lo que entendí hasta ahora es que necesitamos una distribución objetivo que sea proporcional a para tener una muestra de P ( θ | D ) . Sin embargo, me parece que una vez que tenemos p ( D | θ ) p ( θ ) solo necesitamos normalizar la distribución para obtener el posterior, y el factor de normalización se puede encontrar fácilmente numéricamente. Entonces, ¿cuáles son los casos cuando esto no es posible?
Respuestas:
La integración de Monte Carlo es una forma de integración numérica que puede ser mucho más eficiente que, por ejemplo, la integración numérica al aproximar el integrando con polinomios. Esto es especialmente cierto en grandes dimensiones, donde las técnicas simples de integración numérica requieren grandes cantidades de evaluaciones de funciones. Para calcular la constante de normalización , podríamos usar muestreo de importancia ,p ( D )
donde y θ n se muestrean a partir de q . Tenga en cuenta que solo necesitamos evaluar la distribución conjunta en los puntos muestreados. Para el q correcto, este estimador puede ser muy eficiente en el sentido de requerir muy pocas muestras. En la práctica, elegir una q adecuadapuede ser difícil, ¡pero aquí es donde MCMC puede ayudar! El muestreo de importancia recocido(Neal, 1998)combina MCMC con muestreo de importancia.wnorte= 1 / q( θnorte) θnorte q q q
Otra razón por la que MCMC es útil es esta: por lo general, ni siquiera estamos interesados en la densidad posterior de , sino en estadísticas y expectativas resumidas , por ejemplo,θ
Saber generalmente no significa que podamos resolver esta integral, pero las muestras son una forma muy conveniente de estimarlo.p ( D )
Finalmente, poder evaluar es un requisito para algunos métodos de MCMC, pero no todos (p. Ej., Murray et al., 2006 ).p ( D ∣ θ ) p ( θ )
fuente
Por el contrario, los métodos de Monte Carlo de la cadena de Markov son más fáciles de ver en grandes dimensiones, ya que pueden explorar la distribución posterior de forma local, es decir, en una vecindad del valor actual, y en un número menor de componentes, es decir, en subespacios. Por ejemplo, elp ( θ | x )
Los métodos de Monte Carlo de la cadena de Markov también tienen cierto grado de universalidad en algoritmos como el algoritmo Metropolis-Hastingsp ( θ | x )
Los métodos MCMC han dado un alcance mucho más amplio para los métodos bayesianos, como lo ilustra el aumento que siguió a la popularización del método por Alan Gelfand y Adrian Smith en 1990.
fuente