¿Es posible realizar una selección aproximada de hiperparámetros completamente bayesianos (1) (por ejemplo, escala de covarianza) con el código GPML, en lugar de maximizar la probabilidad marginal (2)? Creo que usar métodos MCMC para resolver las integrales que involucran hiperparámetros antes debería conducir a mejores resultados cuando se trata de sobreajuste. Hasta donde yo sé, el marco GPML no incluye estos cálculos, pero quizás haya otros códigos de terceros.
(1) Sec. 5.2, cap. 5 en Proceso Gaussiano para Machine Learning, Rasmussen & Williams, 2006
Respuestas:
Hay otro paquete para el aprendizaje automático usando procesos gaussianos llamado GPstuff que lo tiene todo en mi opinión. Puede usar MCMC, integración en una cuadrícula, etc. para marginar sus hiperparámetros.
Nota: en la documentación llaman hiperparámetros simplemente parámetros.
fuente