La forma más simple de la información teórica CLT es la siguiente:
Sea iid con media y varianza . Sea la densidad de la suma normalizada n D ( f n ‖ ϕ ) → 0 n → ∞
Ciertamente, esta convergencia, en cierto sentido, es "más fuerte" que las convergencias bien establecidas en la literatura, la convergencia en la distribución y la convergencia en métrica, gracias a la desigualdad de Pinsker . Es decir, la convergencia en KL-divergencia implica convergencia en la distribución y convergencia en la distancia .( ∫ | f n - ϕ | ) 2 ≤ 2 ⋅ ∫ f n log ( f n / ϕ ) L 1
Me gustaría saber dos cosas.
¿Qué tiene de bueno el resultado ?
¿Es solo por la razón establecida en el tercer párrafo que decimos que la convergencia en KL-divergencia ( es decir , ) es más fuerte?
NB: Hice esta pregunta hace algún tiempo en math.stackexchange donde no obtuve respuesta.
Respuestas:
Una cosa que es genial con este teorema es que sugiere teoremas de límite en algunos entornos donde el teorema del límite central habitual no se aplica. Por ejemplo, en situaciones donde la distribución máxima de entropía es una distribución no normal, como las distribuciones en el círculo, sugiere la convergencia a una distribución uniforme.
fuente
Después de mirar alrededor, no pude encontrar ningún ejemplo de convergencia en la distribución sin convergencia en la entropía relativa, por lo que es difícil medir la "grandeza" de ese resultado.
Para mí, parece que este resultado simplemente describe la entropía relativa de los productos de convolución. A menudo se ve como una interpretación alternativa y un marco de prueba del Teorema del límite central, y no estoy seguro de que tenga una implicación directa en la teoría de la probabilidad (aunque lo tenga en la teoría de la información).
De la teoría de la información y el teorema del límite central (página 19).
fuente
n → ∞D(fn∥ϕ)→0 asegura que no hay "distancia" entre la distribución de la suma de variables aleatorias y la densidad gaussiana como solo por la definición de divergencia KL, por lo que es la prueba sí mismo. Quizás entendí mal tu pregunta.n→∞
Sobre el segundo punto que designó, se responde en su párrafo.
fuente