He estado tratando de aprender métodos MCMC y me he encontrado con el muestreo de Metropolis Hastings, Gibbs, Importancia y Rechazo. Si bien algunas de estas diferencias son obvias, es decir, cómo Gibbs es un caso especial de Metropolis Hastings cuando tenemos los condicionales completos, las otras son menos obvias, como cuando queremos usar MH dentro de una muestra de Gibbs, etc. ¿Alguien tiene un ¿Una manera simple de ver la mayor parte de las diferencias entre cada uno de estos? ¡Gracias!
mcmc
monte-carlo
gibbs
metropolis-hastings
importance-sampling
usuario1398057
fuente
fuente
Respuestas:
Como se detalla en nuestro libro con George Casella, los métodos estadísticos de Monte Carlo , estos métodos se utilizan para muestras producen a partir de una distribución dada, la densidad digamos, ya sea para tener una idea acerca de esta distribución, o para resolver un problema de integración o de optimización relacionados con las . Por ejemplo, para encontrar el valor de o el modo de distribución de cuando o un cuantil de esta distribución.f ∫ X h ( x ) f ( x ) d xF F h ( X ) X ∼ f ( x )
Para comparar los métodos de Montecarlo de la cadena Monte Carlo y Markov que menciona en criterios relevantes, se requiere establecer los antecedentes del problema y los objetivos del experimento de simulación, ya que los pros y los contras de cada uno variarán de un caso a otro.
Aquí hay algunos comentarios genéricos que ciertamente no cubren la complejidad del problema :
En conclusión, una advertencia de que no existe un método de simulación óptimo. Incluso en una configuración específica como la aproximación de una integral costos de diseñar y ejecutar diferentes métodos interfieren como hacer una comparación global muy delicada, si es posible, mientras que, desde un punto de vista formal, nunca pueden superar la respuesta de varianza cero de devolver la "estimación" constante Por ejemplo, simular desde es muy rara vez, si es que alguna vez, la mejor opción. Esto no significa que los métodos no puedan compararse, sino que siempre existe la posibilidad de una mejora, que conlleva costos adicionales.I = ∫ X h ( x ) f ( x ) d x f
fuente
h(x)
significado concretoh(x)f(x)dx
en un escenario de análisis bayesiano. Estamos tratando de obtener el posterior, dado el previo y los datos. Sin embargo, parece que con todos estos métodos de muestreo en realidad estamos tratando de aproximarnosf(x)
. Entonces, ¿se puede decir quef(x)
ya es la parte posterior que estamos buscando, yh(x)
es solo una función arbitraria que también podríamos juntar con la parte posteriorf(x)
? O no lo entendí correctamente. Gracias.