Estoy en busca de una cota en la entropía de la suma de dos variables aleatorias discretas independientes X y Y . Naturalmente, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Sin embargo, aplicado a la suma de n variables aleatorias independientes de Bernoulli Z 1 , ... , Z n , esto da H ( Z 1 +
En otras palabras, el límite crece linealmente con n cuando se aplica repetidamente. Sin embargo, Z 1 + ⋯ Z n es compatible con un conjunto de tamaño n , por lo que su entropía es como máximo log n . De hecho, por el teorema del límite central, supongo que H ( Z 1 + ⋯ + Z n ) ≈ ( 1 / 2 ) log
ya que es esencialmente compatible con un conjunto de tamaño √ .
En resumen, el límite sobrepasa bastante en esta situación. Al leer esta publicación de blog , deduzco que son posibles todo tipo de límites en H ( X + Y ) ; ¿Hay un límite que proporcione los asintóticos correctos (o, al menos, los asintóticos más razonables) cuando se aplican repetidamente a la suma de variables aleatorias de Bernoulli?
it.information-theory
shannon-entropy
Robinson
fuente
fuente
Respuestas:
fuente
fuente
Tal vez podrías usar la ecuación:
Esto parecería un término que usted mencionó en los comentarios, desafortunadamente no conozco los resultados sobre la cardinalidad de los términos negativos o los límites perspicaces sobre ellos.
fuente