Quiero implementar una regresión incremental del proceso gaussiano usando una ventana deslizante sobre los puntos de datos que llega uno por uno a través de una secuencia.
Deje denotar la dimensionalidad del espacio de entrada. Entonces, cada punto de datos x i tiene d número de elementos.
Sea el tamaño de la ventana deslizante.
Para hacer predicciones, necesito calcular el inverso de la matriz de gramo , donde K i j = k ( x i , x j ) yk es el núcleo exponencial cuadrado.
Para evitar que K se agrande con cada nuevo punto de datos, pensé que podría eliminar el punto de datos más antiguo antes de agregar nuevos puntos y así evitaré que el gramo crezca. Por ejemplo, sea donde Σ es la covarianza de los pesos y φ es la función de mapeo implícito que implica el cuadrado exponencial kernel.
Ahora dejemos que ] y X n e w = [ x t - n + 2 | . . . El | x t | x t + 1 ] donde x 's son d por matrices de 1 columna.
Necesito una manera eficaz de encontrar el potencialmente usando K . Esto no parece ser el inverso de un problema de matriz actualizado de rango 1 que puede tratarse eficientemente con la fórmula de Sherman-Morrison.
fuente
La estimación gradual de los modelos GP está bien estudiada en la literatura. La idea subyacente es, en lugar de condicionar todas las nuevas observaciones que desea predecir, condicionar en el punto de avance de un paso y hacerlo repetidamente. Esto se acerca de alguna manera al filtrado de Kalman.
fuente