¿Cómo difieren ABC y MCMC en sus aplicaciones?

15

Según tengo entendido, la Computación Bayesiana Aproximada (ABC) y la Cadena de Markov Monte Carlo (MCMC) tienen objetivos muy similares. A continuación describo mi comprensión de estos métodos y cómo percibo las diferencias en su aplicación a los datos de la vida real.

Computación Bayesiana Aproximada

ABC consiste en muestrear un parámetro partir de una simulación numérica previa, calcular una estadística que se compara con algunos observados . Basado en un algoritmo de rechazo, se retiene o se rechaza. La lista de retenidos hizo la distribución posterior.x i x o b s x i x iθxixobsxixi

Cadena Markov Monte Carlo

MCMC consiste en muestrear una distribución previa del parámetro . Toma una primera muestra , calcula y luego salta (según alguna regla) a un nuevo valor para el cual se calcula nuevamente. La relación se calcula y, según algún valor de umbral, el próximo salto ocurrirá desde la primera o la segunda posición. La exploración de valores va uno y uno y al final, la distribución de los valores retenidos es la distribución posteriorθθ1P(xobs|θ1)P(θ1)θ2P(xobs|θ2)P(θ2)P(xobs|θ2)P(θ2)P(xobs|θ1)P(θ1)θθP(θ|x) (por una razón que aún desconozco).

Me doy cuenta de que mis explicaciones no representan la variedad de métodos que existe bajo cada uno de estos términos (especialmente para MCMC).

ABC vs MCMC (pros y contras)

ABC tiene la ventaja de que no es necesario poder resolver analíticamente . Como tal, ABC es conveniente para un modelo complejo donde MCMC no lo haría.P(x|θ)P(θ)

MCMC permite realizar pruebas estadísticas (prueba de razón de verosimilitud, prueba G, ...) mientras que no creo que esto sea factible con ABC.

¿Estoy en lo cierto hasta ahora?

Pregunta

  • ¿Cómo difieren ABC y MCMC en sus aplicaciones? ¿Cómo se decide hacer uso de uno u otro método?
Remi.b
fuente
1
"MCMC consiste en muestrear una distribución previa del parámetro θ". Si bien uno ciertamente puede hacer esto, no es necesario, ni siquiera deseable en la mayoría de los casos. Para muchas aplicaciones MCMC, tomamos muestras de θ2 de una distribución candidata centrada alrededor de θ1 (por ejemplo, una gaussiana con una pequeña desviación estándar), luego calculamos la relación de aceptación / rechazo como mencionas anteriormente. Esto está en contraste con ABC, donde tomamos muestras de lo anterior (y esta es la única forma de incorporar información previa en ABC, en general).
z_dood

Respuestas:

12

Algunos comentarios adicionales además de la respuesta de Björn:

  1. ABC fue presentado por primera vez por Rubin (1984) como una explicación de la naturaleza de la inferencia bayesiana, más que con fines computacionales. En este artículo, explicó cómo interactúan la distribución de muestreo y la distribución previa para producir la distribución posterior.

  2. Sin embargo, ABC se explota principalmente por razones computacionales. Los genetistas de población idearon el método en modelos basados ​​en árboles donde la probabilidad de la muestra observada era intratable. Los esquemas de MCMC (aumento de datos) que estaban disponibles en dichos entornos eran terriblemente ineficientes y también lo era el muestreo de importancia, incluso con un parámetro de una sola dimensión ... En esencia, ABC es un sustituto de los métodos de Monte Carlo como MCMC o PMC cuando esos no están disponibles para todos los fines prácticos. Cuando están disponibles, ABC aparece como un proxy que puede usarse para calibrarlos si se ejecuta más rápido.

  3. En una perspectiva más moderna, personalmente considero ABC como un método de inferencia aproximado en lugar de una técnica computacional. Al construir un modelo aproximado, uno puede hacer inferencia sobre el parámetro de interés sin depender necesariamente de un modelo preciso. Si bien es necesario cierto grado de validación en esta configuración, no es menos válido que promediar modelos o no paramétricos. De hecho, ABC puede verse como un tipo especial de estadísticas bayesianas no paramétricas.

  4. También se puede demostrar que el ABC (ruidoso) es un enfoque bayesiano perfectamente bien definido si se reemplaza el modelo y los datos originales por uno ruidoso. Como tal, permite todas las inferencias bayesianas que uno pueda pensar. Incluyendo pruebas. Nuestro aporte al debate sobre ABC y las pruebas de hipótesis es que el modelo aproximado subyacente ABC puede terminar mal equipado para evaluar la relevancia de una hipótesis dada la información, pero no necesariamente , lo cual es igual de bueno ya que la mayoría de las aplicaciones de ABC en la población La genética tiene que ver con la elección del modelo.

  5. En una perspectiva aún más reciente, podemos ver ABC como una versión bayesiana de inferencia indirecta donde los parámetros de un modelo estadístico están relacionados con los momentos de una estadística predeterminada. Si esta estadística es suficiente (o suficiente en el sentido vernáculo) para identificar estos parámetros, se puede demostrar que ABC converge al valor verdadero de los parámetros con el número de observaciones.

Xi'an
fuente
2
Verifiqué esta respuesta pero quiero recomendar leer primero la respuesta de @ Björn (+1) y luego la respuesta de Xi'an.
Remi.b
12

PAG(XEl |θ)θlos datos simulados con mayor frecuencia (aproximadamente) coinciden con los datos observados (con los valores propuestos, por ejemplo, extraídos al azar de los anteriores). Para casos simples, como una variable aleatoria binomial única con un tamaño de muestra no demasiado grande, incluso puede requerir una coincidencia exacta y, en esos casos, realmente no hay absolutamente nada que no pueda hacer con estas muestras posteriores que tampoco pueda hacer con Muestras estándar de MCMC. Para situaciones más complejas con resultados continuos (incluso para resultados discretos multivariados) y resultados potencialmente multivariados que requieren una coincidencia exacta ya no es factible.

De hecho, existen versiones de MCMC de ABC, que abordan el problema de que si tiene un previo que no se parece mucho al posterior (por ejemplo, porque el previo es muy poco informativo), extraer del anterior es extremadamente ineficiente, porque muy rara vez obtener una coincidencia estrecha entre los datos observados y los simulados.

PAG(XEl |θ)PAG(XEl |θ)PAG(XEl |θ)No está analíticamente disponible. Por supuesto, puede haber otras opciones posibles en tales casos (por ejemplo, INLA, aproximaciones cuadráticas a las probabilidades, etc.) que pueden ser más eficientes / exitosas para problemas particulares. En cierto modo, cualquier limitación en lo que puede hacer con muestras posteriores de ABC proviene de requerir solo una coincidencia aproximada entre los datos reales y los simulados (si pudiera requerir una coincidencia exacta, no habría ningún problema). Hay varios buenos artículos introductorios, por ejemplo, este trabajo de Marin et al. (2012) . Al menos uno de los coautores (@ Xi'an) es un colaborador activo aquí y también me encantaría expresar sus pensamientos, creo que puede decir mucho más sobre el tema de las pruebas.

Björn
fuente
Espero haber logrado arreglar el enlace ahora (ahora funciona para mí).
Björn
1
(+1) muy buenos puntos!
Xi'an
1
"Cuando P (x | θ) está analíticamente disponible, supongo que casi siempre será preferible usar un MCMC estándar". Casi, pero no siempre. Imagine que uno tiene un tamaño de muestra muy grande (10 ^ 9) combinado con muchos parámetros. Se vuelve muy costoso volver a calcular la probabilidad de cada conjunto de parámetros. Con ABC, hay muchos trucos que uno puede usar para acelerar esto. Con MCMC, no tanto.
z_dood
2
@z_dood: cuando hay demasiadas observaciones para calcular realmente la probabilidad, como, por ejemplo, cuando deben almacenarse en diferentes computadoras, se vuelve discutible que la función de probabilidad no esté analíticamente disponible.
Xi'an