En la inferencia bayesiana, ¿por qué se eliminan algunos términos del predictivo posterior?

12

En el análisis bayesiano conjugado de Kevin Murphy de la distribución gaussiana , escribe que la distribución predictiva posterior es

p(xD)=p(xθ)p(θD)dθ

donde D son los datos en los que se ajusta el modelo x son datos no vistos. Lo que no entiendo es por qué la dependencia de D desaparece en el primer término en la integral. Usando reglas básicas de probabilidad, hubiera esperado:

p(a)=p(ac)p(c)dcp(ab)=p(ac,b)p(cb)dcp(xD)=p(xθ,D)p(θD)dθ

Pregunta: ¿Por qué desaparece la dependencia de D en el término ?


Por lo que vale, he visto este tipo de formulación (descartando variables en condicionales) en otros lugares. Por ejemplo, en la detección de punto de cambio en línea bayesiana de Ryan Adam , escribe la predicción posterior como

p(xt+1rt)=p(xt+1θ)p(θrt,xt)dθ

D={xt,rt}

p(xt+1xt,rt)=p(xt+1θ,xt,rt)p(θrt,xt)dθ

gwg
fuente

Respuestas:

13

xDθDxθp(x|θ,D)=p(x|θ)D

En su segundo ejemplo, parece que se está aplicando un supuesto de independencia similar, pero ahora (explícitamente) a lo largo del tiempo. Estas suposiciones pueden expresarse explícitamente en otra parte del texto, o pueden ser implícitamente claras para cualquiera que esté suficientemente familiarizado con el contexto del problema (aunque eso no necesariamente significa eso en sus ejemplos particulares, con los que no estoy familiarizado) - los autores tenían razón al asumir esta familiaridad).

Ruben van Bergen
fuente
9

xDθθθDDxp(x|θ,D)=p(x|θ)

JP Trawinski
fuente