Lo más sencillo sería ajustar un proceso gaussiano con la función de covarianza no ARD equivalente (generalmente el RBF) y comparar las tasas de error de la prueba. Para muchos problemas, una función de covarianza ARD funciona peor que una función de covarianza no ARD debido al sobreajuste en el ajuste de los hiperparámetros. Como la covarianza RBF es un caso especial de la covarianza ARD, si el RBF funciona mejor, es una fuerte indicación de que el núcleo ARD se sobreajusta (comience a optimizar los coeficientes ARD en los valores óptimos para la covarianza RBF correspondiente, esto es más rápido, y también ayuda a garantizar que el problema con la covarianza ARD no se deba solo a mínimos locales en la probabilidad marginal). Este es un problema mucho más grande de lo que generalmente se aprecia.
He escrito un par de artículos sobre esto:
GC Cawley y NLC Talbot, Prevención del sobreajuste durante la selección del modelo mediante la regularización bayesiana de los hiperparámetros, Journal of Machine Learning Research, volumen 8, páginas 841-861, abril de 2007 ( pdf )
y
GC Cawley y NLC Talbot, Ajuste excesivo en la selección del modelo y posterior sesgo de selección en la evaluación del rendimiento, Journal of Machine Learning Research, 2010. Research, vol. 11, págs. 2079-2107, julio de 2010 ( pdf )
El primero incluye algunos experimentos con médicos de cabecera, que muestran que el ajuste excesivo en la selección de modelos también es un problema para los médicos de cabecera con una selección de modelo basada en la maximización de probabilidad marginal.
Un análisis más exhaustivo sería evaluar el error de prueba del GP en cada paso del proceso de optimización de la probabilidad marginal. Es muy probable que obtenga la marca clásica de sobreajuste, donde el criterio de selección del modelo está disminuyendo monotónicamente, pero el error de prueba inicialmente disminuye, pero luego comienza a aumentar nuevamente cuando el criterio de selección del modelo está demasiado optimizado (cf Figura 2a en el documento JMLR de 2010).