En el análisis bayesiano conjugado de Kevin Murphy de la distribución gaussiana , escribe que la distribución predictiva posterior es
donde son los datos en los que se ajusta el modelo son datos no vistos. Lo que no entiendo es por qué la dependencia de desaparece en el primer término en la integral. Usando reglas básicas de probabilidad, hubiera esperado:
Pregunta: ¿Por qué desaparece la dependencia de en el término ?
Por lo que vale, he visto este tipo de formulación (descartando variables en condicionales) en otros lugares. Por ejemplo, en la detección de punto de cambio en línea bayesiana de Ryan Adam , escribe la predicción posterior como