Problema: quiero realizar un muestreo de Gibbs para inferir algo posterior sobre un gran conjunto de datos. Desafortunadamente, mi modelo no es muy simple y, por lo tanto, el muestreo es demasiado lento. Consideraría enfoques variacionales o paralelos, pero antes de llegar tan lejos ...
Pregunta: Me gustaría saber si podría muestrear aleatoriamente (con reemplazo) de mi conjunto de datos en cada iteración de Gibbs, de modo que tenga menos instancias de las cuales aprender en cada paso.
Mi intuición es que incluso si cambio las muestras, no estaría cambiando la densidad de probabilidad y, por lo tanto, la muestra de Gibbs no debería notar el truco. Estoy en lo cierto? ¿Hay algunas referencias de personas que hayan hecho esto?
Respuestas:
Acerca de las estrategias de submuestreo: solo por ejemplo, considere tener dos observaciones y X 2 ∼ N ( μ 2 , σ 2 2 ) y considere poner algunas prioridades en la media y la varianza. Deje θ = ( μ 1 , μ 2 , σ 2 1 , σ 2 2 ) , el posterior que queremos evaluar es f (X1∼ N( μ1, σ21) X2∼ N( μ2, σ22) θ = ( μ1, μ2, σ21, σ22)
COnsider ahora una variable binomial δ ∼ B ( 0.5 ) . Si δ = 0 elegimos X 1 , si δ = 1 elegimos X 2 , el nuevo posterior es f ( θ , δ |
fuente