Comprender la regresión del proceso gaussiano a través de la vista de función de base de dimensiones infinitas

14

A menudo se dice que la regresión del proceso gaussiano corresponde (GPR) a la regresión lineal bayesiana con una (posiblemente) cantidad infinita de funciones básicas. Actualmente estoy tratando de entender esto en detalle para tener una intuición de qué tipo de modelos puedo expresar usando GPR.

  1. ¿Crees que este es un buen enfoque para tratar de entender el GPR?

En el libro Procesos gaussianos para el aprendizaje automático, Rasmussen y Williams muestran que el conjunto de procesos gaussianos descritos por el núcleo cuadrado exponencial parametrizado se puede describir de manera equivalente como una regresión bayesiana con una creencia previawN(0,σ 2 p I)en los pesos y una cantidad infinita de funciones básicas de la formaϕc(x;l)=exp(-(x-c)2

k(X,X;l)=σpag2Exp(-(X-X)22l2)
wnorte(0 0,σpag2yo) Por lo tanto, la parametrización del núcleo podría traducirse completamente en una parametrización de las funciones básicas.
ϕC(X;l)=Exp(-(X-C)22l2)
  1. ¿Puede la parametrización de un núcleo diferenciable siempre traducirse en la parametrización de las funciones anteriores y básicas o hay núcleos diferenciables donde, por ejemplo, el número de funciones básicas depende de la configuración?

k(X,X)

k(X,X)=yo=1λyoϕyo(X)ϕyo(X)
ϕyownorte(0 0,diag([λ12,...]))ϕyok(X,X,θ)θ

Mi siguiente pregunta es sobre el teorema inverso de mercer.

  1. ¿Qué conjuntos de funciones básicas conducen a núcleos válidos?

Y la extensión

  1. ¿Qué conjuntos de funciones base parametrizadas conducen a núcleos diferenciables válidos?
Julian Karls
fuente

Respuestas:

1

Aquí hay algunos comentarios. Quizás alguien más pueda completar los detalles.

1) Las representaciones básicas son siempre una buena idea. Es difícil evitarlos si realmente quieres hacer algo computacional con tu función de covarianza. La expansión de la base puede darle una aproximación al núcleo y algo con lo que trabajar. La esperanza es que pueda encontrar una base que tenga sentido para el problema que está tratando de resolver.

θθ

Típicamente, el número de funciones básicas será (contablemente) infinito, por lo que el número no variará con el parámetro, a menos que algunos valores causen que el núcleo se degenere.

wN(0,diag[λ12,])wdiag[λ12,]

λiλiX

Si las funciones básicas no son ortogonales, será más difícil demostrar que una covarianza definida a partir de ellas es positiva definida. Obviamente, en ese caso no se trata de una expansión propia, sino de alguna otra manera de aproximar la función de interés.

Sin embargo, no creo que las personas generalmente comiencen con un montón de funciones y luego intenten construir un núcleo de covarianza a partir de ellas.

RE: Diferenciabilidad del núcleo y diferenciabilidad de las funciones básicas. En realidad no sé la respuesta a esta pregunta, pero ofrecería la siguiente observación.

El análisis funcional procede mediante la aproximación de funciones (desde un espacio dimensional infinito) mediante sumas finitas de funciones más simples. Para que esto funcione, todo depende del tipo de convergencia involucrado. Por lo general, si está trabajando en un conjunto compacto con fuertes propiedades de convergencia (convergencia uniforme o sumabilidad absoluta) en las funciones de interés, obtendrá el tipo de resultado intuitivo que está buscando: las propiedades de las funciones simples pasan a la función de límite, por ejemplo, si el núcleo es una función diferenciable de un parámetro, entonces las funciones de expansión deben ser funciones diferenciables del mismo parámetro, y viceversa. Bajo propiedades de convergencia más débiles o dominios no compactos, esto no sucede. En mi experiencia, hay un contraejemplo a cada idea "razonable" que se le ocurre.

Nota: Para evitar la posible confusión de los lectores de esta pregunta, tenga en cuenta que la expansión gaussiana del punto 1 no es un ejemplo de la expansión propia del punto 2.

Placidia
fuente