¿Hay algún uso para la cantidad

13

¿Hay algún uso para la cantidad

f(x)2dx
en estadística o teoría de la información?
charles.y.zheng
fuente
55
Entropía de Renyi
cardenal
es un pdf, ¿verdad? f
whuber
Sí, es una densidad. f
charles.y.zheng
@ Cardinal Answer!
@mbq: Ok, intentaré escribir algo un poco más tarde que merezca una respuesta. :)
cardenal

Respuestas:

24

Dejando denotar una función de densidad de probabilidad (ya sea con respecto a Lebesgue o medida de conteo, respectivamente), la cantidadf se conoce como laentropíadeRenyide ordenα0. Es una generalización de la entropía de Shannon que conserva muchas de las mismas propiedades. Para el casoα=1, interpretamosH1(f)comolimα1Hα(f), y esto corresponde a la entropía estándar de ShannonH(f)

Hα(f)=1α1log(fαdμ)
α0α=1H1(f)limα1Hα(f)H(f) .

Renyi introdujo esto en su artículo.

A. Renyi, Sobre medidas de información y entropía , Proc. Cuarto Berkeley Symp. en matemáticas., Stat. y prob.(1960), págs. 547–561.

que vale la pena leer, no solo por las ideas sino por el estilo de exposición ejemplar.

El caso es una de las opciones más comunes para α y este caso especial (también) a menudo se conoce como la entropía de Renyi. Aquí vemos que H 2 ( f ) = - log ( f 2 d μ ) = - log ( E f ( X ) ) para una variable aleatoria distribuida con densidad fα=2α

H2(F)=-Iniciar sesión(F2reμ)=-Iniciar sesión(miF(X))
F .

Tenga en cuenta que es una función convexa y, por desigualdad de Jensen, tenemos H 2 ( f ) = - log ( E f ( X ) ) E ( - log f ( X ) ) = - E log f ( X ) = H ( f )-Iniciar sesión(X)

H2(F)=-Iniciar sesión(miF(X))mi(-Iniciar sesiónF(X))=-miIniciar sesiónF(X)=H(F)
donde el lado derecho denota la entropía de Shannon. Por lo tanto, la entropía de Renyi proporciona un límite inferior para la entropía de Shannon y, en muchos casos, es más fácil de calcular.

Otra instancia natural en la que surge la entropía de Renyi es cuando se considera una variable aleatoria discreta y una copia independiente X . En algunos escenarios, queremos saber la probabilidad de que X = X , que mediante un cálculo elemental es P ( X = X ) =XXX=X

P(X=X)=i=1P(X=xi,X=xi)=i=1P(X=xi)P(X=xi)=eH2(f).

fΩ={xi:iN}

La entropía (general) de Renyi también está aparentemente relacionada con la energía libre de un sistema en equilibrio térmico, aunque no estoy personalmente interesado en eso. Un artículo (muy) reciente sobre el tema es

JC Baez, Renyi entropía y energía libre , arXiv [quant-ph] 1101.2098 (febrero de 2011).

cardenal
fuente
De hecho, estaba usando la entropía de Renyi como un sustituto de la entropía de Shannon; Es bueno ver la confirmación de mi intuición. Gracias por la respuesta esclarecedora.
charles.y.zheng
1
logx
1
Veo. Específicamente, necesito la propiedad de que la entropía máxima distribución conjunta, que satisface dados marginales es el producto de los marginales (lo que se obtiene de la independencia.)
charles.y.zheng