¿Hay alguna manera de realizar la regresión de proceso gaussiana en la salida multidimensional (posiblemente correlacionada) usando GPML ?
En el script de demostración solo pude encontrar un ejemplo de 1D.
Una pregunta similar sobre CV que aborda el caso de entrada multidimensional.
Revisé su libro para ver si podía encontrar algo. En el noveno capítulo de este libro (sección 9.1), han mencionado este caso de múltiples salidas. Han mencionado un par de formas de lidiar con esto, uno: usando un proceso de ruido correlacionado y dos: coacción (correlacionado anteriormente).
Todavía no sé cómo puedo incorporar cualquiera de estas ideas en el marco GPML.
Además, ¿hay otras bibliotecas / marcos GP que admitan la salida multidimensional?
regression
machine-learning
matlab
gaussian-process
nonparametric-bayes
pescado estable
fuente
fuente
Respuestas:
Creo que Twin Gaussian Processes es exactamente lo que estás buscando. No puedo describir el modelo mejor que el resumen del documento en sí, así que solo voy a copiar y pegar:
Los autores han proporcionado generosamente códigos y conjuntos de datos de muestra para comenzar.
fuente
Respuesta breve La regresión para la salida multidimensional es un poco complicada y, en mi nivel actual de conocimiento, no está directamente incorporado en la caja de herramientas GPML.
Respuesta larga Puede dividir su problema de regresión de salida multidimensional en 3 partes diferentes.
Espero que ayude :)
fuente
Este es un módulo de scikit-learn que me funcionó sorprendentemente bien:
http://scikit-learn.org/stable/auto_examples/gaussian_process/plot_gp_regression.html
fuente
Estaba buscando procesos gaussianos de múltiples salidas y encontré muchas formas de actuar con ellos, como el método de convolución, el método de modelado de efectos mixtos y el último proceso gaussiano doble (TGP).
Tengo una duda sobre el concepto de procesos gemelos gaussianos (TGP). ¿Alguien me puede ayudar con eso?
En TGP, los autores están descubriendo la salida predicha ( ) minimizando la divergencia KL entre la entrada y la salida, y viceversa. Pero, en general, buscamos la distribución predictiva de la salida, es decir, . Una cosa a destacar aquí es que la varianza predictiva, es decir, , no tiene ningún papel en ella. En el caso de TGP, ¿la salida predicha es la misma que la media de la distribución predictiva de ? P(Y*|y)~(μ,σ2)σ2y Y yy^ p(y∗|y)∼(μ,σ2) σ2 y y^ y
fuente