Entiendo que cuando se utiliza un enfoque bayesiano para estimar los valores de los parámetros:
- La distribución posterior es la combinación de la distribución previa y la distribución de probabilidad.
- Simulamos esto generando una muestra de la distribución posterior (por ejemplo, usando un algoritmo de Metropolis-Hasting para generar valores, y los aceptamos si están por encima de un cierto umbral de probabilidad de pertenecer a la distribución posterior).
- Una vez que hemos generado esta muestra, la usamos para aproximar la distribución posterior y cosas como su media.
Pero, siento que debo estar malentendiendo algo. Parece que tenemos una distribución posterior y luego tomamos muestras de ella, y luego usamos esa muestra como una aproximación de la distribución posterior. Pero si tenemos la distribución posterior para comenzar, ¿por qué necesitamos tomar muestras de ella para aproximarla?
Sí, puede tener una distribución analítica posterior. Pero el núcleo del análisis bayesiano es marginar sobre la distribución posterior de parámetros para obtener un mejor resultado de predicción tanto en términos de precisión como de capacidad de generalización. Básicamente, desea obtener una distribución predictiva que tenga la siguiente forma.
fuente