Estoy leyendo sobre entropía y me cuesta mucho conceptualizar lo que significa en el caso continuo. La página wiki dice lo siguiente:
La distribución de probabilidad de los eventos, junto con la cantidad de información de cada evento, forma una variable aleatoria cuyo valor esperado es la cantidad promedio de información, o entropía, generada por esta distribución.
Entonces, si calculo la entropía asociada con una distribución de probabilidad que es continua, ¿qué es lo que realmente me dice? Dan un ejemplo sobre lanzar monedas, por lo que el caso discreto, pero si hay una forma intuitiva de explicar a través de un ejemplo como ese en el caso continuo, ¡sería genial!
Si ayuda, la definición de entropía para una variable aleatoria continua es la siguiente:
Para intentar hacer esto más concreto, considere el caso de , luego, según Wikipedia , la entropía es
Y ahora hemos calculado la entropía para una distribución continua (la distribución Gamma) y si ahora evalúo esa expresión, , dada y , ¿qué me dice realmente esa cantidad?
Respuestas:
La entropía te dice cuánta incertidumbre hay en el sistema. Digamos que está buscando un gato y sabe que está en algún lugar entre su casa y los vecinos, que está a 1 milla de distancia. Tus hijos te dicen que la distribución beta describe mejor la probabilidad de que un gato esté en la distancia de tu casa . Por lo tanto, un gato puede estar en cualquier lugar entre 0 y 1, pero es más probable que esté en el medio, es decir, .x f(x;2,2) xmax=1/2
la distribución beta a su ecuación, luego obtendrá .H=−0.125
Luego, le preguntas a tu esposa y ella te dice que la mejor distribución para describir su conocimiento de tu gato es la distribución uniforme. Si lo conecta a su ecuación de entropía, obtiene .H=0
Tanto la distribución uniforme como la beta permiten que el gato esté en cualquier lugar entre 0 y 1 millas de su casa, pero hay más incertidumbre en el uniforme, porque su esposa realmente no tiene idea de dónde se esconde el gato, mientras que los niños tienen alguna idea , piensan que es más Es probable que esté en algún lugar en el medio. Es por eso que la entropía de Beta es más baja que la de Uniform.
Puede probar otras distribuciones, tal vez su vecino le diga que al gato le gusta estar cerca de cualquiera de las casas, por lo que su distribución beta es con . Su debe ser más baja que la del uniforme nuevamente, porque tienes una idea de dónde buscar un gato. ¿Adivina si la entropía de información de su vecino es mayor o menor que la de sus hijos? Apostaría a los niños cualquier día en estos asuntos.α=β=1/2 H
ACTUALIZAR:
¿Como funciona esto? Una forma de pensar en esto es comenzar con una distribución uniforme. Si está de acuerdo en que es el que tiene más incertidumbre, piense en perturbarlo. Veamos el caso discreto por simplicidad. Tome de un punto y agréguelo a otro de la siguiente manera:Δp
Ahora, veamos cómo cambia la entropía: Esto significa que cualquier perturbación de la distribución uniforme reduce la entropía (incertidumbre). Para mostrar lo mismo en caso continuo, tendría que usar cálculo de variaciones o algo por el estilo, pero en principio obtendrás el mismo tipo de resultado.
ACTUALIZACIÓN 2: La media de variables aleatorias uniformes es una variable aleatoria en sí misma, y proviene de la distribución de Bates . De CLT sabemos que la varianza de esta nueva variable aleatoria se reduce como . Entonces, la incertidumbre de su ubicación debe reducirse con el aumento de : estamos cada vez más seguros de que un gato está en el medio. Mi siguiente diagrama y código MATLAB muestra cómo la entropía disminuye de 0 para (distribución uniforme) a . Estoy usando la biblioteca de distribuciones31 aquí.n n→∞ n n=1 n=13
fuente
Me gustaría agregar una respuesta directa a esta pregunta:
Es intuitivo ilustrar eso en un escenario discreto. Suponga que arroja una moneda muy sesgada, diciendo que la probabilidad de ver una cara en cada lanzamiento es de 0.99. Cada cambio real le dice muy poca información porque casi ya sabe que será cabeza. Pero cuando se trata de una moneda más justa, no le resulta más difícil saber qué esperar, entonces cada lanzamiento le da más información que cualquier moneda sesgada. La cantidad de información obtenida al observar un solo lanzamiento se equipara con .log1p(x)
Lo que la cantidad de la entropía nos dice es la información que cada volteo real en promedio (ponderado) puede transmitir: . Cuanto más justa sea la moneda, mayor será la entropía, y una moneda completamente justa será máximamente informativa.Elog1p(x)=∑p(x)log1p(x)
fuente