Como el elemento de probabilidad de X es F( x ) d x , el cambio de la variable y= x σ+ μ es equivalente a x = ( y- μ ) / σ, donde
F( x ) d x = f( y- μσ) d ( y- μσ) = 1σF( y- μσ) d y
se deduce que la densidad de Y es
FY( y) = 1σF(y-μσ) .
En consecuencia, la entropía de Y es
H( Y) = - ∫∞- ∞Iniciar sesión( 1σF( y- μσ) ) 1σF( y- μσ) d y
que, al cambiar la variable de nuevo a x = ( y- μ ) / σ, produce
H( Y)= - ∫∞- ∞Iniciar sesión( 1σF( x ) ) f( x ) d x= - ∫∞- ∞( registro( 1σ) +log( f( x ) ) ) f( x ) d x= log( σ) ∫∞- ∞F( x ) d x - ∫∞- ∞Iniciar sesión( f( x ) ) f( x ) d x= log( σ) + HF.
Estos cálculos utilizaron propiedades básicas del logaritmo, la linealidad de la integración y el hecho de que F( x ) d x integra a la unidad (la Ley de probabilidad total).
La conclusión es
La entropía de Y= Xσ+ μ es la entropía de X más Iniciar sesión( σ) .
En palabras, cambiar una variable aleatoria no cambia su entropía (podemos pensar que la entropía depende de los valores de la densidad de probabilidad, pero no de dónde ocurren esos valores), mientras se escala una variable (que, para σ≥ 1 " estira "o" mancha ") aumenta su entropía por log(σ). Esto apoya la intuición de que las distribuciones de alta entropía están "más dispersas" que las distribuciones de baja entropía.
μσ(μ,σ)μ=0σ=1.
log(f(x))=−12log(2π)−x2/2,
De dónde
H=−E[−12log(2π)−X2/2]=12log(2π)+12.
(μ,σ)logσ
H=12log(2π)+12+log(σ)=12log(2πeσ2)
según lo informado por Wikipedia .