¿Podría la información mutua sobre la entropía conjunta: 0 ≤ I( X, Y)H( X, Y)≤ 10≤I(X,Y)H(X,Y)≤1 0 \leq \frac{I(X,Y)}{H(X,Y)} \leq 1 se define como: "¿La probabilidad de transmitir una información de X a Y"? Lamento ser tan ingenuo, pero nunca he estudiado teoría de la información, y estoy...