Tengo una duda muy básica. Lo siento si esto irrita a algunos. Sé que el valor de la información mutua debe ser mayor que 0, pero ¿debe ser menor que 1? ¿Está limitado por algún valor superior?
Gracias Amit.
Tengo una duda muy básica. Lo siento si esto irrita a algunos. Sé que el valor de la información mutua debe ser mayor que 0, pero ¿debe ser menor que 1? ¿Está limitado por algún valor superior?
Gracias Amit.
Sí, tiene un límite superior, pero no 1.
La información mutua (en bits) es 1 cuando dos partes (estadísticamente) comparten un bit de información. Sin embargo, pueden compartir una gran cantidad de datos arbitrarios. En particular, si comparten 2 bits, entonces es 2.
La información mutua está limitada desde arriba por la entropía de Shannon de distribuciones de probabilidad para partes individuales, es decir, .