Estoy tomando un curso sobre métodos de Monte Carlo y aprendimos el método de Muestreo de rechazo (o Muestreo de aceptación-rechazo) en la última conferencia. Hay muchos recursos en la web que muestran la prueba de este método, pero de alguna manera no estoy convencido con ellos.
Entonces, en la Muestra de rechazo, tenemos una distribución que es difícil de probar. Elegimos una distribución fácil de muestrear y encontrar un coeficiente tal que . Luego tomamos muestras de y para cada sorteo, , también probamos un de una distribución uniforme estándar .
La muestra se acepta si es y rechazado de otra manera.
Las pruebas que encontré usualmente solo muestran que y detente ahí.
Lo que pienso sobre este proceso es que tenemos una secuencia de variables y un par corresponde a nuestra i.a muestra () y si se acepta () Sabemos que cada el par es independiente el uno del otro, de modo que:
Para par sabemos que y . Podemos calcular fácilmentepero no entiendo cómo es suficiente como prueba. Necesitamos demostrar que el algoritmo funciona, por lo que creo que una prueba debería mostrar que la distribución empricial de las muestras aceptadas converge a como . Quiero decir, con siendo el número de todas las muestras aceptadas y rechazadas:
como .
¿Estoy equivocado con este patrón de pensamiento? ¿O hay una conexión entre la prueba común del algoritmo y esto?
Gracias por adelantado
fuente
Primero, tenga en cuenta que un procedimiento completo del método de muestreo de rechazo solo produce una única variable aleatoria. Cuando algunasxi es aceptado, el procedimiento se detiene y no hay xi+1 nunca más. Si desea múltiples variables aleatorias, simplemente repita el procedimiento varias veces.
En algunos libros de texto, denotan el evento de aceptación porA y calcular la probabilidad
And
The confusing thing is that the acceptanceA here appears to be acceptance of a single sample of xi , but the whole procedure may reject multiple xi 's.
Yes, a more rigorous proof should consider the probability of acceptance at different steps. LetXi denote the i th sample, fXi denote the probability density function of Xi , Ai denote the i th acceptance, and X∞ denote the final accepted value. Then the probability density function of X∞ is
AndfX2(x|A2) is f(x) too because the second step is not affected by previous steps, its probability should be the same as the first step. If this explanation doesn't convince you, we can also work it out rigorously. Be careful X2 is not defined when X1 is accepted (or you can define it to be an arbitrary number when X1 is accepted if undefined value makes you uncomfortable), so for probabilities concerning X2 , only conditional probabilities given Ac1 or subsets of Ac1 make sense. Now
fuente