Sé que KL Divergence no es simétrica y no puede considerarse estrictamente como una métrica. Si es así, ¿por qué se usa cuando JS Divergence satisface las propiedades requeridas para una métrica?
¿Hay escenarios en los que se puede utilizar la divergencia KL pero no la divergencia JS o viceversa?
probability
distributions
kullback-leibler
metric
usuario2761431
fuente
fuente
Respuestas:
Encontré una respuesta muy madura en Quora y la puse aquí para las personas que la buscan aquí:
fuente
La divergencia KL tiene una interpretación teórica de información clara y es bien conocida; pero soy la primera vez que oigo que la simetrización de la divergencia KL se llama divergencia JS. La razón por la que la divergencia JS no se usa con tanta frecuencia es probablemente porque es menos conocida y no ofrece propiedades imprescindibles.
fuente