Entropía diferencial

13

La entropía diferencial de la RV gaussiana es . Esto depende de , que es la desviación estándar.σlog2(σ2πe)σ

Si normalizamos la variable aleatoria para que tenga una varianza unitaria, su entropía diferencial cae. Para mí, esto es contraintuitivo porque la complejidad de normalización de Kolmogorov debería ser muy pequeña en comparación con la reducción de la entropía. Simplemente se puede diseñar un decodificador de codificador que divida / multiplique con la constante de normalización para recuperar cualquier conjunto de datos generado por esta variable aleatoria.

Probablemente mi entendimiento está apagado. ¿Podrías señalar mi defecto?

Cagdas Ozgenc
fuente

Respuestas:

17

Voy a intentar esto, aunque está un poco por encima de mi cabeza, así que trata con una pizca de sal ...

No estás exactamente equivocado. Creo que donde cae tu experimento mental es que la entropía diferencial no es el caso limitante de la entropía. Supongo que debido a esto, se pierden los paralelos entre él y la complejidad de Kolmogorov.

Digamos que tenemos una variable aleatoria discreta . Podemos calcular su entropía de Shannon de la siguiente manera sumando todos sus valores posibles x i , H ( X ) = - i P ( X = x i ) log ( P ( X = x i ) ) .Xxi

H(X)=iP(X=xi)log(P(X=xi)).

Hasta ahora muy aburrido. Ahora supongamos que es una versión cuantizada de una variable aleatoria continua; por ejemplo, tenemos la función de densidad p ( ) que genera muestras del conjunto de números reales y la convertimos en un histograma. Tendremos un histograma lo suficientemente fino como para que la función de densidad sea esencialmente lineal. En ese caso vamos a tener una entropía como esta, H ( X ) - i p ( X = x i ) δ x log ( p ( X = x i ) δ xXp() dondeδxes el ancho de nuestros contenedores de histograma yxies el punto medio de cada uno. Tenemos un producto dentro de ese logaritmo: separémoslo y usemos la propiedad de las distribuciones de probabilidad que suman 1 para moverlo fuera de la suma, dándonos H(X)-log ( δx ) -i p(X=xi)δxlog ( p(X=xi) ) .

H(X)ip(X=xi)δxlog(p(X=xi)δx),
δxxi
H(X)log(δx)ip(X=xi)δxlog(p(X=xi)).

δxdx

H(X)=log(dx)xp(X=x)log(p(X=x))dx.

log(dx)

σ

δ

xp(X=x)log(p(X=x)q(X=x))dx
q(X)Xp(X)q(X)
Palmadita
fuente
Gracias. Eso es muy interesante. No sabía que había un truco en la teoría.
Cagdas Ozgenc
1
log(dx)p(x)ip(xi)δxlogp(xi)h(X)δx0nh(X)+n
1
log(dx)
@Cagdas - No sé si lo llamaría un truco. Solo mide una cosa diferente. Y como señala Cardinal, tiene algunos usos. En cuanto a si se romperá cuando se aplique a la distribución binominal, bueno, depende de cómo lo apliques :). Probablemente valga la pena comenzar un nuevo tema si no está seguro.
Pat
Pensé que la entropía es obviamente diferente de la complejidad de Kolmogorov cuando se consideran generadores de números pseudoaleatorios.
James Bowery