¿Hay algún uso para la cantidad
en estadística o teoría de la información?
probability
entropy
information-theory
charles.y.zheng
fuente
fuente
Respuestas:
Dejando denotar una función de densidad de probabilidad (ya sea con respecto a Lebesgue o medida de conteo, respectivamente), la cantidadf
se conoce como laentropíadeRenyide ordenα≥0. Es una generalización de la entropía de Shannon que conserva muchas de las mismas propiedades. Para el casoα=1, interpretamosH1(f)comolimα→1Hα(f), y esto corresponde a la entropía estándar de ShannonH(f)
Renyi introdujo esto en su artículo.
que vale la pena leer, no solo por las ideas sino por el estilo de exposición ejemplar.
El caso es una de las opciones más comunes para α y este caso especial (también) a menudo se conoce como la entropía de Renyi. Aquí vemos que H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E f ( X ) ) para una variable aleatoria distribuida con densidad fα=2 α
Tenga en cuenta que es una función convexa y, por desigualdad de Jensen, tenemos H 2 ( f ) = - log ( E f ( X ) ) ≤ E ( - log f ( X ) ) = - E log f ( X ) = H ( f )- registro( x )
Otra instancia natural en la que surge la entropía de Renyi es cuando se considera una variable aleatoria discreta y una copia independiente X ⋆ . En algunos escenarios, queremos saber la probabilidad de que X = X ⋆ , que mediante un cálculo elemental es P ( X = X ⋆ ) =X X⋆ X= X⋆
La entropía (general) de Renyi también está aparentemente relacionada con la energía libre de un sistema en equilibrio térmico, aunque no estoy personalmente interesado en eso. Un artículo (muy) reciente sobre el tema es
fuente