No soy matemático. He buscado en Internet sobre KL Divergence. Lo que aprendí es que la divergencia KL mide la información perdida cuando aproximamos la distribución de un modelo con respecto a la distribución de entrada. Los he visto entre dos distribuciones continuas o discretas. ¿Podemos hacerlo entre continuo y discreto o viceversa?
12
Respuestas:
No: la divergencia KL solo se define en distribuciones sobre un espacio común. Pregunta sobre la densidad de probabilidad de un punto bajo dos distribuciones diferentes, p ( x ) y q ( x ) . Si p es una distribución en R 3 y q una distribución en Z , entonces q ( x ) no tiene sentido para los puntos p ∈ R 3 y p ( z ) no tiene sentido para los puntos z ∈ ZX p ( x ) q( x ) pag R3 q Z q( x ) p ∈ R3 p ( z) z∈ Z . De hecho, ni siquiera podemos hacerlo para dos distribuciones continuas en espacios de diferentes dimensiones (o discretos, o en cualquier caso en que los espacios de probabilidad subyacentes no coincidan).
Si tiene un caso en particular en mente, puede ser posible llegar a una medida similar de disparidad entre las distribuciones. Por ejemplo, podría tener sentido codificar una distribución continua bajo un código para una discreta (obviamente con información perdida), por ejemplo, redondeando al punto más cercano en el caso discreto.
fuente
Sí, la divergencia KL entre variables aleatorias continuas y discretas está bien definida. Si y Q son distribuciones en algún espacio X , entonces P y Q tienen densidades f , g con respecto a μ = P + Q y D K L ( P , Q ) = ∫ X f log fP Q X P Q f g μ=P+Q
fuente
No en general La divergencia KL es
fuente