Suponga que una variable aleatoria tiene un límite inferior y superior [0,1]. ¿Cómo calcular la varianza de tal variable?
22
Suponga que una variable aleatoria tiene un límite inferior y superior [0,1]. ¿Cómo calcular la varianza de tal variable?
Respuestas:
Puede probar la desigualdad de Popoviciu de la siguiente manera. Utilice la notaciónm = inf X y METRO= sup X . Definir una función sol por
sol( t ) = E [ ( X- t )2].
Calcular la derivadasol′ y resolver
sol′( t ) = - 2 E [ X] + 2 t = 0, sol t = E [ X] sol′ ′> 0
Ahora, considere el valor de la función en el punto especial . Debe ser el caso de que Pero Desde y , tenemos lo que implica quesol t = M+ m2 V a r [X] = g( E [ X] ) ≤ g( M+ m2). sol( M+ m2) = E [ ( X- M+ m2)2] = 14 4E [ ( ( X- m ) + ( X- M) )2]. X- m ≥ 0 X- M≤ 0 ( ( X- m ) + ( X- M) )2≤ ( ( X- m ) - (X- M) )2= ( M- m )2, 14 4E [ ( ( X- m ) + ( X- M) )2] ≤ 14 4E [ ( ( X−m)−(X−M))2]=(M−m)24.
Por lo tanto, probamos la desigualdad de Popoviciu
Var[X]≤(M−m)24.
fuente
Sea una distribución en . Vamos a demostrar que si la varianza de es máxima, entonces puede tener ningún apoyo en el interior, de la que se deduce que es Bernoulli y el resto es trivial.F [0,1] F F F
Como cuestión de notación, y muchoμk=∫10xkdF(x) sea el k ésimo momento prima de F (y, como de costumbre, escribimos yμ=μ1 para la varianza).σ2=μ2−μ2
Sabemos que no tiene todo su soporte en un punto (la varianza es mínima en ese caso). Entre otras cosas, esto implica que μ se encuentra estrictamente entre 0 y 1 . Para argumentar por contradicción, suponga que hay un subconjunto I medible en el interior ( 0 , 1 ) para el cual F ( I ) > 0 . Sin ninguna pérdida de generalidad, podemos suponer (cambiando X a 1 - X si es necesario) que F ( J = IF μ 0 1 I (0,1) F( Yo) > 0 X 1 - X : en otras palabras, J se obtiene cortando cualquier parte de I por encima de la media y J tiene una probabilidad positiva.F( J= Yo∩ ( 0 , μ ] ) > 0 J yo J
Alteremos a F ′ tomando toda la probabilidad de J y colocándola en 0 .F F′ J 0 0 Al hacerlo, cambia aμk
Como una cuestión de notación, escribamos para tales integrales, de donde[ g( x ) ] = ∫Jsol( x ) dF( x )
Calcular
El segundo término de la derecha, , es no negativo debido μ ≥ x todas partes en J . El primer término de la derecha puede reescribirse(μ[x]−[x]2) μ≥x J
El primer término a la derecha es estrictamente positivo porque (a) y (b) [ 1 ] = F ( J ) < 1 porque asumimos que F no está concentrado en un punto. El segundo término no es negativo porque puede reescribirse como [ ( μ - x ) ( x ) ] y este integrando no es negativo a partir de los supuestos μ ≥ x en J y 0 ≤ x ≤ 1μ>0 [1]=F(J)<1 F [(μ−x)(x)] μ≥x J 0≤x≤1 . Se deduce que .σ′2−σ2>0
Acabamos de demostrar que, bajo nuestras suposiciones, cambiar a F ' aumenta estrictamente su varianza. La única forma en que esto no puede suceder, entonces, es cuando toda la probabilidad de F ' se concentra en los puntos finales 0 y 1 , con (digamos) valores 1 - p y p , respectivamente. Su varianza se calcula fácilmente a la igualdad de p ( 1 - p ) que es máxima cuando p = 1 / 2 y es igual a 1 / 4 allí.F F′ F′ 0 1 1−p p p(1−p) p=1/2 1/4
Ahora, cuando es una distribución en [ a , b ] , volvemos a centrarla y la redimensionamos a una distribución en [ 0 , 1 ] . La reubicación no cambia la varianza, mientras que la reescalada la divide por ( b - a ) 2 . Así, una F con varianza máxima en [ un , b ] corresponde a la distribución con varianza máxima en [ 0 , 1 ] : por lo tanto, es un Bernoulli ( 1 / 2 )F [a,b] [0,1] (b−a)2 F [a,b] [0,1] (1/2) distribución reescalado y traducido a que tiene varianza ( b - a ) 2 / 4 , QED .[a,b] (b−a)2/4
fuente
Si la variable aleatoria está restringida a y conocemos la media μ = E [ X ] , la varianza está limitada por ( b - μ ) ( μ - a ) .[a,b] μ=E[X] (b−μ)(μ−a)
Consideremos primero el caso . Tenga en cuenta que para todo x ∈ [ 0 , 1 ] , x 2 ≤ x , por lo que también E [ X 2 ] ≤ E [ X ] . Usando este resultado, σ 2 = E [ X 2 ] - ( E [ X ] 2 ) = E [ X 2 ]a=0,b=1 x∈[0,1] x2≤x E[X2]≤E[X]
Para generalizar a intervalos con b > a , considere Y restringido a [ a , b ] . Definir X = Y - a[ a , b ] b > a Y [ a , b ] , que está restringido en[0,1]. De manera equivalente,Y=(b-a)X+a, y por lo tanto
Var[Y]=(b-a)2Var[X]≤(b-a)2μX(1-μX).X= Y- unb - a [ 0 , 1 ] Y= ( b - a ) X+ a
fuente
A petición de @ user603 ...
Otro punto a tener en cuenta es que una variable aleatoria limitada tiene una varianza finita, mientras que para una variable aleatoria no limitada, la varianza puede no ser finita y, en algunos casos, ni siquiera ser definible. Por ejemplo, la media no se puede definir para las variables aleatorias de Cauchy , por lo que no se puede definir la varianza (como la expectativa de la desviación al cuadrado de la media).
fuente
Este artículo se ve mejor que el artículo de Wikipedia ...
fuente