La divergencia de Kullback-Leibler es una métrica para comparar dos funciones de densidad de probabilidad, pero ¿qué métrica se utiliza para comparar dos GP e ?Y
gaussian-process
metric
Pushkar
fuente
fuente
Respuestas:
Observe que la distribución de los procesos gaussianosX→R es la extensión del gaussiano multivariante para posiblemente infinito X . Por lo tanto, puede utilizar la divergencia KL entre las distribuciones de probabilidad GP integrando over RX :
Puede usar métodos MC para aproximar numéricamente esta cantidad sobre un \ mathcal {X} discretizadoX muestreando repetidamente los procesos de acuerdo con su distribución GP. No sé si la velocidad de convergencia es suficientemente buena ...
Observe que si es finito con , entonces retrocede a la divergencia KL habitual para distribuciones normales multivariadas: | X | = n D K L ( G P ( μ 1 , K 1 ) , G P ( μ 2 , K 2X |X|=n
fuente
Recuerde que si es un proceso gaussiano con función media función de covarianza , entonces, para cada , el vector aleatorio tiene una distribución normal multivariada con vector medio y matriz de covarianza , donde hemos usado la abreviatura común . m K t 1 , … , t k ∈ T ( X ( t 1 ) , … , X ( t k ) ) ( m ( t 1 ) , … , m ( t k ) ) Σ = ( σ i j j ) ) X ( tX:T×Ω→R m K t1,…,tk∈T (X(t1),…,X(tk)) (m(t1),…,m(tk)) Σ=(σij)=(K(ti,tj)) X(t)=X(t,⋅)
Cada realización es una función real cuyo dominio es el conjunto de índices . Supongamos que . Dados dos procesos gaussianos e , una distancia común entre dos realizaciones e es. Por lo tanto, parece natural definir la distancia entre los dos procesos e comoX(⋅,ω) T T=[0,1] X Y X(⋅,ω) Y(⋅,ω) X Y d ( X , Y ) = Esupt∈[0,1]|X(t,ω)−Y(t,ω)| X Y 0 ≤ t 1 < ⋯ < t k ≤ 1 ( x i 1 , … , x i k ) ( y i 1 , … , y i k ) ( X ( t 1 ) , … , X ( t k ) ) ( Y ( t 1 ) , … , Y
fuente