Para una variable aleatoria continua arbitraria, digamos , ¿es su entropía diferencial siempre menor que ∞ ? (Está bien si se trata de - ∞ ). Si no es así, ¿cuál es la condición necesaria y suficiente para que sea menos de ∞ ?
entropy
information-theory
maximum-entropy
syeh_106
fuente
fuente
Respuestas:
Pensé en esta pregunta un poco más y logré encontrar un contraejemplo, gracias también a los comentarios de Piotr anteriores. La respuesta a la primera pregunta es no: la entropía diferencial de una variable aleatoria continua (RV) no siempre es menor que . Por ejemplo, considere un RV X continuo cuyo pdf es f ( x ) = log ( 2 )∞
parax>2.
No es difícil verificar que su entropía diferencial es infinita. Sin embargo, crece bastante lento (aprox. Logarítmicamente).
Para la segunda pregunta, no conozco una condición simple necesaria y suficiente. Sin embargo, una respuesta parcial es la siguiente. Clasifique un RV continuo en uno de los siguientes 3 tipos según su soporte, es decir
Tipo 1: un RV continuo cuyo soporte está acotado, es decir, contenido en [a, b].∞ , a]
Tipo 3: un RV continuo cuyo soporte es ilimitado.−∞
Tipo 2: un RV continuo cuyo soporte está medio acotado, es decir, contenido en [a, ) o (
Luego tenemos lo siguiente -
fuente