¿Por qué es necesario tomar muestras de la distribución posterior si ya SABEMOS la distribución posterior?

19

Entiendo que cuando se utiliza un enfoque bayesiano para estimar los valores de los parámetros:

  • La distribución posterior es la combinación de la distribución previa y la distribución de probabilidad.
  • Simulamos esto generando una muestra de la distribución posterior (por ejemplo, usando un algoritmo de Metropolis-Hasting para generar valores, y los aceptamos si están por encima de un cierto umbral de probabilidad de pertenecer a la distribución posterior).
  • Una vez que hemos generado esta muestra, la usamos para aproximar la distribución posterior y cosas como su media.

Pero, siento que debo estar malentendiendo algo. Parece que tenemos una distribución posterior y luego tomamos muestras de ella, y luego usamos esa muestra como una aproximación de la distribución posterior. Pero si tenemos la distribución posterior para comenzar, ¿por qué necesitamos tomar muestras de ella para aproximarla?

Dave
fuente

Respuestas:

20

Es probable que esta pregunta ya se haya considerado en este foro.

Cuando dice que "tiene la distribución posterior", ¿qué quiere decir exactamente? "Tener" una función de que sé es proporcional a la posterior, a saber, π ( θ | x ) π ( θ ) × f ( x | θ ), por ejemplo, el objetivo completamente artificial π ( θ | x ) exp { - | El | θ - x | El | 2 - | El | θ + xθ

π(θEl |X)π(θ)×F(XEl |θ)
no me dice qué es
π(θEl |X)Exp{-El |El |θ-XEl |El |2-El |El |θ+XEl |El |4 4-El |El |θ-2XEl |El |6 6},  X,θR18 años,
  1. la expectativa posterior de una función de , por ejemplo, E [ h ( θ ) | x ] , media posterior que opera como un estimador bayesiano bajo pérdidas estándar;θmi[h(θ)El |X]
  2. la decisión óptima bajo una función de utilidad arbitraria, decisión que minimiza la pérdida posterior esperada;
  3. un rango de incertidumbre del 90% o del 95% en los parámetros, un sub-vector de los parámetros o una función de los parámetros, también conocida como región HPD
    {h=h(θ); πh(h)h_ _}
  4. el modelo más probable para elegir entre establecer algunos componentes de los parámetros a valores específicos o mantenerlos desconocidos (y aleatorios).

Estos son solo ejemplos de muchos usos de la distribución posterior. En todos los casos, excepto en los más simples, no puedo proporcionar las respuestas mirando la densidad de distribución posterior y necesito proceder a través de resoluciones numéricas como los métodos Monte Carlo y Monte Carlo de la cadena Markov.

Xi'an
fuente
Muchas gracias por la respuesta Xi'an. Estoy seguro de que esto responde a mi pregunta, pero todavía tengo dificultades para comprenderlo. ¿Tengo razón en que tenemos una función de densidad de probabilidad correspondiente a la posterior (es decir, combinando lo anterior y la probabilidad)? ¿Por qué no podríamos encontrar el IC del 95% directamente de esto, en lugar de la distribución posterior muestreada?
Dave
2
@ Dave Creo que la clave aquí es lo que quieres decir con "tener". En general, no tendrá una solución de forma cerrada, por lo que no "tendrá" la función en un sentido útil.
monje
@monk gracias por la respuesta! ¿Le importaría desarrollar lo que hace que una solución de forma no cerrada?
Dave
2
Suponga que su anterior es Beta (a, b) y su probabilidad es Binomial (n, p). ¿Cómo se calcula el valor esperado de su posterior? Intente resolver la integral de ese producto con lápiz y papel. En general, dicha integral será algo que requiera una computadora para obtener un valor preciso. Alternativamente, podría descubrir que Beta es conjugado antes de Binomial y, por lo tanto, el posterior será Beta (con parámetros fácilmente calculables). Pero a menudo no tendrás tanta suerte. Es difícil fijar una definición de "forma cerrada", y vale la pena leerlo por sí solo.
monje
4

Sí, puede tener una distribución analítica posterior. Pero el núcleo del análisis bayesiano es marginar sobre la distribución posterior de parámetros para obtener un mejor resultado de predicción tanto en términos de precisión como de capacidad de generalización. Básicamente, desea obtener una distribución predictiva que tenga la siguiente forma.

pag(XEl |re)=pag(XEl |w)pag(wEl |re)rew

pag(wEl |re)pag(wEl |re)pag(XEl |w)

Karlsson Yu
fuente