Estoy leyendo el libro GPML y en el Capítulo 2 (página 15) , me dice cómo hacer una regresión usando el Proceso Gaussiano (GP), pero me cuesta entender cómo funciona.
En la inferencia bayesiana para modelos paramétricos, primero elegimos un previo en los parámetros del modelo , es decir ; segundo, dados los datos de entrenamiento, calculamos la probabilidad ; y finalmente tenemos la parte posterior de como , que se utilizará en la distribución predictiva
Bueno, como se dice en el libro, GP no es paramétrico, y hasta donde yo entiendo, después de especificar la función media y la función de covarianza , tenemos una función GP over ,
¡SIN EMBARGO, eso no es lo que hace el libro! Quiero decir, después de especificar el previo, no calcula la probabilidad y la posterior, sino que va directamente a la predicción predictiva.
Pregunta:
1) ¿Por qué no calcular la probabilidad y posterior? ¿Solo porque GP no es paramétrico, entonces no hacemos eso?
2) Como se hace en el libro (página 15 ~ 16), deriva la distribución predictiva a través de la distribución conjunta del conjunto de datos de entrenamiento y conjunto de datos de prueba , que se denomina conjunto previo . Muy bien, esto me confunde mucho, ¿por qué juntarlos?
3) Vi algunos artículos llamar la variable latente , ¿por qué?
fuente
Respuestas:
El libro está usando el promedio de modelo bayesiano, que es el mismo para los modelos paramétricos o cualquier otro método bayesiano, dado que tiene un valor posterior sobre sus parámetros.
No necesita ser 'sin ruido'. Ver páginas posteriores.
Vea esto: https://people.cs.umass.edu/~wallach/talks/gp_intro.pdf
Creo que en la página 17 tenemos la probabilidad anterior y posterior. Creo que si escribe las derivaciones y encuentra el posterior, y luego promedia sobre el posterior para la predicción (como en la vista del espacio de peso) dará como resultado las mismas ecuaciones que en la página 19 para la media y la covarianza.
fuente