¿Podría la información mutua sobre la entropía conjunta:
se define como: "¿La probabilidad de transmitir una información de X a Y"?
Lamento ser tan ingenuo, pero nunca he estudiado teoría de la información, y estoy tratando de entender algunos conceptos al respecto.
information-theory
mutual-information
luca maggi
fuente
fuente
Respuestas:
La medida que está describiendo se llama Ratio de calidad de la información [IQR] (Wijaya, Sarno y Zulaika, 2017). IQR es información mutuayo( X, Y) dividida por "incertidumbre total" (entropía conjunta) H( X, Y) (fuente de la imagen: Wijaya, Sarno y Zulaika, 2017).
Según lo descrito por Wijaya, Sarno y Zulaika (2017),
Puede interpretarlo como una probabilidad de que la señal se reconstruya perfectamente sin perder información . Observe que tal interpretación está más cerca de la interpretación subjetivista de la probabilidad , que de la interpretación tradicional y frecuentista.
Es una probabilidad para un evento binario (reconstruir información versus no), donde IQR = 1 significa que creemos que la información reconstruida es confiable, e IQR = 0 significa lo contrario. Comparte todas las propiedades de probabilidades de eventos binarios. Además, las entropías comparten una serie de otras propiedades con probabilidades (por ejemplo, definición de entropías condicionales, independencia, etc.). Por lo tanto, parece una probabilidad y a los charlatanes les gusta.
Wijaya, DR, Sarno, R. y Zulaika, E. (2017). Relación de calidad de la información como una nueva métrica para la selección de wavelets madre. Quimometría y sistemas inteligentes de laboratorio, 160, 59-71.
fuente
fuente