¿Cómo se comparan dos procesos gaussianos?

14

La divergencia de Kullback-Leibler es una métrica para comparar dos funciones de densidad de probabilidad, pero ¿qué métrica se utiliza para comparar dos GP e ?YXY

Pushkar
fuente
d(X,Y)=E[supt|X(t)Y(t)|]
Zen
@ Zen: si tienes tiempo, me interesa saber más sobre esta métrica de distancia.
Neil G
Hola neil No sé mucho al respecto. Por favor, mira mi respuesta a continuación.
Zen

Respuestas:

8

Observe que la distribución de los procesos gaussianos XR es la extensión del gaussiano multivariante para posiblemente infinito X . Por lo tanto, puede utilizar la divergencia KL entre las distribuciones de probabilidad GP integrando over RX :

DKL(P|Q)=RXlogdPdQdP.

Puede usar métodos MC para aproximar numéricamente esta cantidad sobre un \ mathcal {X} discretizado Xmuestreando repetidamente los procesos de acuerdo con su distribución GP. No sé si la velocidad de convergencia es suficientemente buena ...

Observe que si es finito con , entonces retrocede a la divergencia KL habitual para distribuciones normales multivariadas: | X | = n D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2X|X|=n

DKL(GP(μ1,K1),GP(μ2,K2))=12(tr(K21K1)+(μ2μ1)K21(μ2μ1)n+log|K2||K1|)
Emile
fuente
¿Cómo puedo calcular dos medias (mu1 y mu2) que mencionaste? ¿O debería tomarlos igual a cero como de costumbre para el proceso gaussiano?
Marat Zakirov
4

Recuerde que si es un proceso gaussiano con función media función de covarianza , entonces, para cada , el vector aleatorio tiene una distribución normal multivariada con vector medio y matriz de covarianza , donde hemos usado la abreviatura común . m K t 1 , , t kT ( X ( t 1 ) , , X ( t k ) ) ( m ( t 1 ) , , m ( t k ) ) Σ = ( σ i j j ) ) X ( tX:T×ΩRmKt1,,tkT(X(t1),,X(tk))(m(t1),,m(tk))Σ=(σij)=(K(ti,tj))X(t)=X(t,)

Cada realización es una función real cuyo dominio es el conjunto de índices . Supongamos que . Dados dos procesos gaussianos e , una distancia común entre dos realizaciones e es. Por lo tanto, parece natural definir la distancia entre los dos procesos e como X(,ω)TT=[0,1]XYX(,ω)Y(,ω)X Y d ( X , Y ) = Esupt[0,1]|X(t,ω)Y(t,ω)|XY0 t 1 < < t k1 ( x i 1 , , x i k ) ( y i 1 , , y i k ) ( X ( t 1 ) , , X ( t k ) ) ( Y ( t 1 ) , , Y

d(X,Y)=E[supt[0,1]|X(t)Y(t)|].()
No sé si hay una expresión analítica para esta distancia, pero creo que puedes calcular una aproximación de Monte Carlo de la siguiente manera. Arregle una cuadrícula fina , y extraiga muestras y de los vectores normales aleatorias y , respectivamente, para . Aproximadamente por 0t1<<tk1(xi1,,xik)(yi1,,yik)(X(t1),,X(tk))i = 1 , , N d ( X , Y ) 1(Y(t1),,Y(tk))i=1,,Nd(X,Y)
1Ni=1Nmax1jk|xijyij|.
zen
fuente
¿Cómo muestras de cada vector? Si solo muestra las medias en cada uno de los GP, no tendrá en cuenta las variaciones. De lo contrario, deberá idear una técnica de muestreo que sea consistente.
pushkar
Este es un excelente recurso: gaussianprocess.org/gpml/chapters
Zen
También puede leer todas las respuestas a esta pregunta: stats.stackexchange.com/questions/30652/…
Zen
Tenga en cuenta que esto no es una distancia ya que . Como el KL compara dos distribuciones y no dos realizaciones, la distancia de Zen entre dos GP debe definirse como , y tenemos que para no degenerado proceso gaussiana . d ( G 1 , G 2 ) = E X G 1 , Y G 2 [ sup t | X ( t ) - Y ( t ) | ] E X G , Y G sup t | X ( t ) - Y ( td(X,X)0d(G1,G2)=EXG1,YG2[supt|X(t)Y(t)|]GEXG,YGsupt|X(t)Y(t)|>0G
Emile
@Emile: ¿cómo es que usa la definición ? d(X,X)0()
Zen