Confusión relacionada con la distribución predictiva de procesos gaussianos

8

Tengo esta confusión relacionada con la distribución predictiva del proceso gaussiano. Estaba leyendo este papel

ingrese la descripción de la imagen aquí

No entendí cómo la integración dio ese resultado. ¿Qué es P (u * | x ​​*, u)? Además, ¿cómo es que la covarianza de la distribución posterior esσ2(σ2yo+K)-1K

usuario34790
fuente
+1, tengo casi el mismo problema. Después de buscar en la web, encontré algo más confuso. Vea las notas de esta conferencia de Rasmussen, videolectures.net/site/normal_dl/tag=12546/… . Presta atención a la página 15.
aguacate

Respuestas:

4

PAGS(tuEl |X,tu) norte(tu(X) , ), directamente desde la definición de .σ2tu

Tenga en cuenta que la integración de dos pdf gaussianos está normalizada. Se puede demostrar por el hecho de que

-PAGS(tuEl |X,tu)retu=-tuPAGS(tuEl |X,tu)PAGS(tuEl |s)returetu=tuPAGS(tuEl |s)-PAGS(tuEl |X,tu)returetu=tuPAGS(tuEl |s)-norte(tu-tu(X);0 0,σ2)returetu=tuPAGS(tuEl |s)retu-norte(tu;0 0,σ2)retu=1

Con la normalización fuera del camino,

tuPAGS(tuEl |X,tu)PAGS(tuEl |s)retu está integrado por los siguientes consejos:

  1. Sustituya el 2 pdf normal en la ecuación y elimine los términos independientes de , como ya hemos mostrado normalización.tu

  2. Usando el truco de completar el cuadrado para integrar exponencial multivariante, es decir, construir un pdf normal multivariado con los términos exponenciales restantes. Consulte este video de YouTube .

  3. Eventualmente te queda un exponencial en términos de , se puede observar que este es nuevamente un factor alejado de un pdf normal. Nuevamente, la prueba de normalización nos da la confianza de que la forma final es de hecho un pdf normal. El pdf es el mismo que figura en la publicación original.tu

Ruohan Wang
fuente
1
Esta debería ser la respuesta aceptada, ya que en realidad responde a la pregunta.
Michael
2

Las derivaciones detalladas de las ecuaciones para la distribución condicional de un proceso gaussiano se pueden encontrar en el capítulo 2 y el apéndice A del libro [Rasmussen2005].

Eche un vistazo a (Ec. 2.23, 2.24) y superiores, que se basan en las identidades gaussianas (A.6) y la propiedad de la matriz (A.11).


[Rasmussen2005] CE Rasmussen y C. Williams. Procesos gaussianos para el aprendizaje automático . MIT Press, 2005.

Emile
fuente
Tengo el mismo problema que el OP, y tengo que decir que no descubrí las derivaciones detalladas en el libro GPML. Y me confundí aún más después de leer las notas de la conferencia que publiqué en el comentario anterior. En esas notas, la posterior dada por Rasmussen es diferente de la de la ecuación de OP . Hice la derivación yo mismo, y estoy de acuerdo en que la posterior sea ​​la misma que la ecuación , incluso creo que las notas de la conferencia de Rasmussen podrían estar equivocadas en este punto. Si me pierdo algo o me equivoco, corrígeme. Y espero que puedas dar más detalles sobre la derivación. pags(tuEl |S)(5 5)pags(tuEl |S)(5 5)
aguacate
Esto no responde a las preguntas.
Explosión de Nathan el
@avocado Me doy cuenta de que esto lleva muchos años de retraso, pero en caso de que esto pueda ayudarlo a usted (o a cualquier otra persona que venga), tenga en cuenta que es exactamente igual a , así como a . Por lo tanto, la parte posterior es la misma que la ecuación de OP (5) y como se da en las notas de clase de Rasmussen, simplemente se expresan de manera diferente. K-K(K+σ2yo)-1Kσ2(K+σ2yo)-1Kσ2yo-σ2yo(K+σ2yo)-1σ2yo
Duckmayr