Resultados de las estimaciones de Monte Carlo producidas por muestreo de importancia

13

He estado trabajando en el muestreo de importancia bastante de cerca durante el año pasado y tengo algunas preguntas abiertas con las que esperaba obtener ayuda.

Mi experiencia práctica con esquemas de muestreo de importancia ha sido que ocasionalmente pueden producir fantásticas estimaciones de baja varianza y bajo sesgo. Sin embargo, con mayor frecuencia tienden a producir estimaciones de alto error que tienen una varianza de muestra baja pero un sesgo muy alto.

Me pregunto si alguien puede explicar exactamente qué tipo de factores afectan la validez de las estimaciones de muestreo de importancia. En particular, me pregunto:

1) ¿Se garantiza que las estimaciones de muestreo de importancia converjan al resultado correcto cuando la distribución de polarización tiene el mismo soporte que la distribución original? Si es así, ¿por qué parece que esto toma tanto tiempo en la práctica?

2) ¿Existe una relación cuantificable entre el error en una estimación producida a través del muestreo de importancia y la "calidad" de la distribución de polarización (es decir, cuánto coincide con la distribución de varianza cero)

3) Parcialmente basado en 1) y 2): ¿hay alguna manera de cuantificar 'cuánto' debe saber sobre una distribución antes de que fuera mejor usar un diseño de muestreo de importancia que un método simple de Monte Carlo?

Berk U.
fuente

Respuestas:

8

El muestreo de importancia tiene exactamente la misma validación que el enfoque básico de Monte Carlo. En esencia, es el básico Monte Carlo . De hecho, es simplemente un cambio de medida de referencia, que va de a h ( x ) f ( x )

h(x)f(x)dx
Así, la convergencia está garantizada por la ley de los grandes números en ambos casos, es decir, si simula desdefo desdeg. Además, si el término h2(x)
h(x)f(x)g(x)g(x)dx
fg es finito, el teorema del límite central también se aplica y la velocidad de convergencia es
h2(x)f2(x)g(x)dx
. Si "lleva tanto tiempo en la práctica", es porque el factor de variación anterior en el CLT puede ser bastante grande. Pero, e insisto, la velocidad es la misma que con Monte Carlo regular,O(1/n).O(1/n)

La calidad de una distribución de muestreo de importancia está, por lo tanto, directamente relacionada con el factor de varianza anterior, que va a cero para la "distribución de varianza cero" proporcional a .|h(x)|f(x)

Xi'an
fuente
2
Sospecho que, dado que el OP está informando estimadores de varianza pequeños que están sesgados, pero parecen tener una varianza pequeña, puede estar preguntando sobre el muestreo de importancia auto normalizado. Vea el discurso de Radford Neal sobre el estimador de la media armónica para un buen ejemplo, que toma lo que sería una estimación de muestreo de importancia con 0 de varianza, y devuelve tonterías. No estoy seguro de que esto nunca ocurra en el muestreo de importancia regular, pero ciertamente es raro.
deinst
Incluso si esta no fuera la intención del OP, estaría interesado en algunos consejos sobre cómo averiguar cuándo la auto-normalización va a salir terriblemente mal.
deinst
@deinst No estaba al tanto del procedimiento de auto-normalización y sus dificultades, ¡así que gracias por esto! En cualquier caso, creo que los problemas pueden ser relevantes para las propiedades de mi esquema IS, por lo que me gustaría explorar esta idea un poco más si alguno de ustedes tiene ideas.
Berk U.
@deinst El esquema IS que estoy usando está diseñado para funcionar sin una distribución de muestreo a mano. El esquema utiliza primero un procedimiento MCMC para simular M puntos x 1 . . x M de la distribución de varianza cero g * ( x ) = h ( x ) f ( x x M para producir ^ g ( x ) . Con ^ g ( x ) en la mano, que pueda luego muestra de Ng(x)Mx1..xMg(x)=h(x)f(x)/h(x)f(x)dxx1..xMg(x)^g(x)^Ny1...yN
El uso de una estimación no paramétrica introduce una variabilidad de un orden más alto que la variabilidad de Monte Carlo, por lo que no lo recomendaría.
Xi'an
7

fg

δ=h(x)f(x)dx
x1,,xng(x)
δ^=i=1nh(x)f(x)/g(x)i=1nf(x)/g(x).
X/Yω(X)=f(x)/g(X)
Eg(δ^)δ+δVarg(ω(X))Covg(ω(X),h(X)ω(X))n
and
Varg(δ^)Varg(h(X)ω(X))2δCovg(ω(X),h(X)ω(X))+δ2Varg(ω(X))n.

So, intuitvely, to get small bias and small variance, you want Varg(ω(X)) to be small and Covg(ω(X),h(X)ω(X)) to be positive. Unfortunately these approximations are not perfect (and accurately determining the variances and covariances is likely to be as difficult as solving the initial problem).

deinst
fuente
Thank you for this. I'm just a little unsure about the notation / not sure if there is a typo. To clarify, what exactly are X/Y and G in your explanation?
Berk U.
@BerkUstun The capital G is a typo for a small that I will fix promptly. X/Y is just a generic ratio of random variables. IIRC all this is explained in Liu's Monte Carlo book (something with scientific in the title.)
deinst
@deinst: Great point! Indeed, the properties of the self-normalised versions are quite different from those of the unbiased importance sampling estimator. In theory, one would need a separate importance sampler to estimate the denominator.
Xi'an