Creo que depende de cómo se use.
Solo como referencia para otros lectores, si y Q son medidas de probabilidad, entonces la Divergencia de Jensen-Shannon es
J ( P , Q ) = 1PQ
dondeR=1
J( P, Q ) = 12( D(P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
es la medida del punto medio y
D(⋅∣∣⋅)es la divergencia Kullback-Leibler.
R = 12( P+ Q )D ( ⋅ ∣ ∣ ⋅ )
Ahora, estaría tentado a usar la raíz cuadrada de la divergencia de Jensen-Shannon, ya que es una métrica , es decir, satisface todas las propiedades "intuitivas" de una medida de distancia.
Para más detalles sobre esto, vea
Endres y Schindelin, una nueva métrica para distribuciones de probabilidad , IEEE Trans. en Info. Tu. vol. 49, no. 3, julio de 2003, págs. 1858-1860.
Por supuesto, en cierto sentido, depende de para qué lo necesite. Si todo lo que está usando es para evaluar alguna medida por pares, entonces cualquier transformación monotónica de JSD funcionaría. Si está buscando algo que esté más cerca de una "distancia al cuadrado", entonces el JSD es la cantidad análoga.
Por cierto, también podría estar interesado en esta pregunta anterior y las respuestas y discusiones asociadas.
J(P,Q) = J(Q,P)
. Leí que la divergencia JS es simétrica en P y Q. ¿Significa estoJS(P,Q) = JS(Q,P)
? Estoy preguntando esto porque estoy usando laKLdiv
función delflexmix
paqueteR
. Para mis dos distribuciones, la salida de matriz de KLdiv no es simétrica. Esperaba que JS corrigiera esto, pero la salida de JS (calculada usando KL) no es simétrica.