Estoy tratando de entender la forma normalizada de información mutua puntual.
¿Por qué la probabilidad conjunta logarítmica normaliza la información mutua puntual entre [-1, 1]?
La información mutua puntual es:
p (x, y) está delimitado por [0, 1] por lo que log (p (x, y)) está delimitado por (, 0]. Parece que el log (p (x, y)) debería equilibrar de alguna manera los cambios en el numerador, pero no entiendo exactamente cómo. También me recuerda a la entropía , pero nuevamente no entiendo la relación exacta.
Respuestas:
De la entrada de Wikipedia sobre información mutua puntual :
¿Por que sucede? Bueno, la definición de información mutua puntual es
mientras que para información mutua puntual normalizada es:
El cuando hay:
fuente
Si bien la respuesta de Piotr Migdal es informativa al dar ejemplos donde nmpi logra tres valores extremos, no prueba que esté en el intervalo . Aquí está la desigualdad y su derivación. como para cualquier evento . Dividiendo ambos lados por el no negativo , tenemos[ - 1 , 1 ] ≤==≤Iniciar sesiónp (x , y)Iniciar sesiónp ( x, y) ) - iniciar sesiónp ( x )- logpag( y)Iniciar sesiónp ( x, y)p ( x ) p( y)= : pmi ( x ; y)Iniciar sesiónp (yEl | x)+ logp (yEl | x)- registrop ( x ,y)-registrop ( x ,y) -registrop ( A ) ≥ 0 UNA h ( x , y) : = - logp ( x ,y) - 1 ≤ nmpi ( x ; y) : = mpi (x; y)h ( x , y)≤ 1.
fuente