¿El muestreo basado en la cadena de Markov es el "mejor" para el muestreo de Monte Carlo? ¿Hay esquemas alternativos disponibles?

9

Markov Chain Monte Carlo es un método basado en cadenas de Markov que nos permite obtener muestras (en un entorno de Monte Carlo) a partir de distribuciones no estándar de las que no podemos extraer muestras directamente.

Mi pregunta es por qué la cadena de Markov es "lo último en tecnología" para el muestreo de Monte Carlo. Una pregunta alternativa podría ser, ¿hay otras formas como las cadenas de Markov que se pueden usar para el muestreo de Monte Carlo? Sé (al menos por mirar la literatura) que el MCMC tiene profundas raíces teóricas (en términos de condiciones como (a) periodicidad, homogeneidad y equilibrio detallado), pero me pregunto si hay algún modelo / método probabilístico "comparable" para Monte Muestra de Carlo similar a las cadenas de Markov.

Por favor, guíenme si he confundido alguna parte de la pregunta (o si parece completamente confusa).

Ikram Ullah
fuente

Respuestas:

11

¡No hay razón para afirmar que el muestreo MCMC es el "mejor" método de Monte Carlo! Por lo general, es lo opuesto peor que el muestreo iid, al menos en términos de varianza de los estimadores de Monte Carlo resultantes De hecho, mientras que este promedio converge con la expectativa cuando es la distribución estacionaria y limitante de la cadena de Markov , existen al menos dos inconvenientes al usar métodos MCMC:

1Tt=1Th(Xt)
miπ[h(X)]π(Xt)t
  1. La cadena necesita "alcanzar la estacionariedad", lo que significa que debe olvidarse de su valor inicial . En otras palabras, debe ser "lo suficientemente grande" para que se distribuya desde . A veces, "lo suficientemente grande" puede exceder en varios órdenes de magnitud el presupuesto informático para el experimento.X0 0tXtπ
  2. Los valores están correlacionados, lo que lleva a una variación asintótica que involucra que generalmente excede y por lo tanto requiere simulaciones más largas que para una muestra iid.Xt
    varπ(X)+2t=1covπ(X0 0,Xt)
    varπ(X)

Dicho esto, MCMC es muy útil para manejar configuraciones donde el muestreo regular de iid es imposible o demasiado costoso y donde el muestreo de importancia es bastante difícil de calibrar, en particular debido a la dimensión de la variable aleatoria a simular.

Sin embargo, los métodos secuenciales de Monte Carlo como los filtros de partículas pueden ser más apropiados en modelos dinámicos, donde los datos provienen de explosiones que necesitan atención inmediata e incluso pueden desaparecer (es decir, no pueden almacenarse) después de un corto tiempo.

En conclusión, MCMC es una herramienta muy útil (y muy utilizada) para manejar configuraciones complejas donde fallan las soluciones regulares de Monte Carlo.

Xi'an
fuente
8

Hay varias formas de generar valores aleatorios a partir de una distribución, McMC es una de ellas, pero varias otras también se considerarían métodos de Monte Carlo (sin la parte de la cadena de Markov).

Lo más directo para el muestreo univariado es generar una variable aleatoria uniforme, luego conectarla a la función inversa de CDF. Esto funciona muy bien si tiene el CDF inverso, pero es problemático cuando el CDF y / o su inverso son difíciles de calcular directamente.

Para problemas multivariados, puede generar datos desde una cópula, luego usar el método CDF inverso en los valores generados para tener cierto nivel de correlación entre las variables (aunque especificar los parámetros correctos a la cópula para obtener el nivel de correlación deseado a menudo requiere un poco de prueba y error).

El muestreo de rechazo es otro enfoque que se puede utilizar para generar datos a partir de una distribución (univariada o multivariada) en la que no necesita conocer el CDF o su inverso (y ni siquiera necesita la constante de normalización para la función de densidad), pero esto puede ser muy ineficiente en algunos casos, tomar mucho tiempo.

Si está interesado en resúmenes de los datos generados en lugar de los puntos aleatorios, la muestra de importancia es otra opción.

El muestreo de Gibbs, que es una forma de muestreo de McMC, le permite muestrear donde no conoce la forma exacta de la distribución multivariante, siempre que conozca la distribución condicional para cada variable dadas las otras.

También hay otros, lo mejor depende de lo que sabe y no sabe y de otros detalles del problema específico. McMC es popular porque funciona bien para muchas situaciones y se generaliza en muchos casos diferentes.

Greg Snow
fuente