Variación de una variable aleatoria acotada

22

Suponga que una variable aleatoria tiene un límite inferior y superior [0,1]. ¿Cómo calcular la varianza de tal variable?

Piotr
fuente
8
De la misma manera que para una variable ilimitada, estableciendo los límites de integración o suma de manera adecuada.
Scortchi - Restablece a Monica
2
Como dijo @Scortchi. Pero tengo curiosidad por qué pensaste que podría ser diferente.
Peter Flom - Restablece a Monica
3
A menos que no sepa nada acerca de la variable (en cuyo caso, se puede calcular un límite superior de la varianza a partir de la existencia de límites), ¿por qué el hecho de que está limitado entra en el cálculo?
Glen_b -Reinstate Monica
66
Un útil límite superior de la varianza de una variable aleatoria que toma valores en [a,b] con probabilidad 1 es (ba)2/4 y se logra por una variable aleatoria discreta que toma valores a y b con igual probabilidad 12 . Otro punto a tener en cuenta es que se garantiza que la varianza existe, mientras que una variable aleatoria ilimitada podría no tener una varianza (algunas, como las variables aleatorias de Cauchy, ni siquiera tienen una media).
Dilip Sarwate
77
No es una variable aleatoria discreta cuya varianza es igual a (ba)24 exactamente:una variable aleatoria que toma valoresaybcon igual probabilidad12 . Entonces, al menos sabemos que un límite superior universal en la varianza no puede ser menor que(ba)24 .
Dilip Sarwate

Respuestas:

46

Puede probar la desigualdad de Popoviciu de la siguiente manera. Utilice la notación m=infX y M=supX . Definir una función g por

g(t)=E[(Xt)2].
Calcular la derivadag y resolver
g(t)=2E[X]+2t=0,
gt=E[X]g>0

Ahora, considere el valor de la función en el punto especial . Debe ser el caso de que Pero Desde y , tenemos lo que implica que gt=M+m2

Var[X]=g(E[X])g(M+m2).
g(M+m2)=E[(XM+m2)2]=14E[((Xm)+(XM))2].
Xm0XM0
((Xm)+(XM))2((Xm)(XM))2=(Mm)2,
14E[((Xm)+(XM))2]14E[((Xm)(XM))2]=(Mm)24.
Por lo tanto, probamos la desigualdad de Popoviciu
Var[X](Mm)24.

zen
fuente
3
Enfoque agradable: es bueno ver demostraciones rigurosas de este tipo de cosas.
whuber
22
+1 Nice! Aprendí estadísticas mucho antes de que las computadoras estuvieran en boga, y una idea que se nos introdujo fue que que permitió el cálculo de la varianza al encontrar la suma de los cuadrados de las desviaciones de cualquier punto conveniente y luego ajustar el sesgo. Aquí, por supuesto, esta identidad ofrece una prueba simple del resultado de que tiene un valor mínimo en sin la necesidad de derivados, etc.
E[(Xt)2]=E[((Xμ)(tμ))2]=E[(Xμ)2]+(tμ)2
tg(t)t=μ
Dilip Sarwate
18

Sea una distribución en . Vamos a demostrar que si la varianza de es máxima, entonces puede tener ningún apoyo en el interior, de la que se deduce que es Bernoulli y el resto es trivial.F[0,1]FFF

Como cuestión de notación, y mucho μk=01xkdF(x) sea el k ésimo momento prima de F (y, como de costumbre, escribimos yμ=μ1 para la varianza).σ2=μ2μ2

Sabemos que no tiene todo su soporte en un punto (la varianza es mínima en ese caso). Entre otras cosas, esto implica que μ se encuentra estrictamente entre 0 y 1 . Para argumentar por contradicción, suponga que hay un subconjunto I medible en el interior ( 0 , 1 ) para el cual F ( I ) > 0 . Sin ninguna pérdida de generalidad, podemos suponer (cambiando X a 1 - X si es necesario) que F ( J = IFμ01I(0,1)F(I)>0X1X : en otras palabras, J se obtiene cortando cualquier parte de I por encima de la media y J tiene una probabilidad positiva.F(J=I(0,μ])>0JIJ

Alteremos a F tomando toda la probabilidad de J y colocándola en 0 . FFJ0 Al hacerlo, cambia aμk

μk=μkJxkdF(x).

Como una cuestión de notación, escribamos para tales integrales, de donde[g(x)]=Jg(x)dF(x)

μ2=μ2[x2],μ=μ[x].

Calcular

σ2=μ2μ2=μ2[x2](μ[x])2=σ2+((μ[x][x2])+(μ[x][x]2)).

El segundo término de la derecha, , es no negativo debido μ x todas partes en J . El primer término de la derecha puede reescribirse(μ[x][x]2)μxJ

μ[x][x2]=μ(1[1])+([μ][x][x2]).

El primer término a la derecha es estrictamente positivo porque (a) y (b) [ 1 ] = F ( J ) < 1 porque asumimos que F no está concentrado en un punto. El segundo término no es negativo porque puede reescribirse como [ ( μ - x ) ( x ) ] y este integrando no es negativo a partir de los supuestos μ x en J y 0 x 1μ>0[1]=F(J)<1F[(μx)(x)]μxJ0x1. Se deduce que .σ2σ2>0

Acabamos de demostrar que, bajo nuestras suposiciones, cambiar a F ' aumenta estrictamente su varianza. La única forma en que esto no puede suceder, entonces, es cuando toda la probabilidad de F ' se concentra en los puntos finales 0 y 1 , con (digamos) valores 1 - p y p , respectivamente. Su varianza se calcula fácilmente a la igualdad de p ( 1 - p ) que es máxima cuando p = 1 / 2 y es igual a 1 / 4 allí.FF F011ppp(1p)p=1/21/4

Ahora, cuando es una distribución en [ a , b ] , volvemos a centrarla y la redimensionamos a una distribución en [ 0 , 1 ] . La reubicación no cambia la varianza, mientras que la reescalada la divide por ( b - a ) 2 . Así, una F con varianza máxima en [ un , b ] corresponde a la distribución con varianza máxima en [ 0 , 1 ] : por lo tanto, es un Bernoulli ( 1 / 2 )F[a,b][0,1](ba)2F[a,b][0,1](1/2)distribución reescalado y traducido a que tiene varianza ( b - a ) 2 / 4 , QED .[a,b](ba)2/4

whuber
fuente
Interesante, whuber. No conocía esta prueba.
Zen
66
@Zen No es tan elegante como el tuyo. Lo ofrecí porque me he encontrado a lo largo de los años pensando de esta manera cuando me enfrento a desigualdades de distribución mucho más complicadas: pregunto cómo se puede cambiar la probabilidad para hacer que la desigualdad sea más extrema. Como una heurística intuitiva es útil. Al utilizar enfoques como el presentado aquí, sospecho que se podría derivar una teoría general para probar una gran clase de tales desigualdades, con una especie de sabor híbrido del cálculo de variaciones y técnicas multiplicadoras de Lagrange (dimensiones finitas).
whuber
Perfecto: su respuesta es importante porque describe una técnica más general que se puede utilizar para manejar muchos otros casos.
Zen
@whuber dijo: "Pregunto cómo se puede cambiar la probabilidad para hacer que la desigualdad sea más extrema". - Esta parece ser la forma natural de pensar sobre tales problemas.
Glen_b -Reinstala a Monica
Parece haber algunos errores en la derivación. Debe ser Además, [ ( μ - x ) ( x ) ] no es igual a [ μ ] [ x ]
μ[x][x2]=μ(1[1])[x]+([μ][x][x2]).
[(μx)(x)] ya que [ μ ] [ x ] no es lo mismo que μ [ x ][μ][x][x2][μ][x]μ[x]
Leo
13

Si la variable aleatoria está restringida a y conocemos la media μ = E [ X ] , la varianza está limitada por ( b - μ ) ( μ - a ) .[a,b]μ=E[X](bμ)(μa)

Consideremos primero el caso . Tenga en cuenta que para todo x [ 0 , 1 ] , x 2x , por lo que también E [ X 2 ] E [ X ] . Usando este resultado, σ 2 = E [ X 2 ] - ( E [ X ] 2 ) = E [ X 2 ]a=0,b=1x[0,1]x2xE[X2]E[X]

σ2=E[X2](E[X]2)=E[X2]μ2μμ2=μ(1μ).

Para generalizar a intervalos con b > a , considere Y restringido a [ a , b ] . Definir X = Y - a[a,b]b>aY[a,b] , que está restringido en[0,1]. De manera equivalente,Y=(b-a)X+a, y por lo tanto Var[Y]=(b-a)2Var[X](b-a)2μX(1-μX).X=Yaba[0,1]Y=(ba)X+a

Var[Y]=(ba)2Var[X](ba)2μX(1μX).
donde la desigualdad se basa en el primer resultado. Ahora, sustituyendo , el límite es igual a (b-a)2μX=μYaba que es el resultado deseado.
(ba)2μYaba(1μYaba)=(ba)2μYababμYba=(μYa)(bμY),
Juho Kokkala
fuente
8

A petición de @ user603 ...

σ2[a,b]1σ2(ba)24a=0,b=1ab12(ba)24

Otro punto a tener en cuenta es que una variable aleatoria limitada tiene una varianza finita, mientras que para una variable aleatoria no limitada, la varianza puede no ser finita y, en algunos casos, ni siquiera ser definible. Por ejemplo, la media no se puede definir para las variables aleatorias de Cauchy , por lo que no se puede definir la varianza (como la expectativa de la desviación al cuadrado de la media).

Dilip Sarwate
fuente
este es un caso especial de la respuesta de @ Juho
Aksakal
Fue solo un comentario, pero también podría agregar que esta respuesta no responde a la pregunta formulada.
Aksakal
@Aksakal Entonces ??? Juho estaba respondiendo una pregunta ligeramente diferente y mucho más reciente. Esta nueva pregunta se ha fusionado con la que ves arriba, a la que respondí hace diez meses.
Dilip Sarwate
0

[a,b]

Var(X)=E[(XE[X])2]E[(ba)2]=(ba)2.
1/4

1/4

Este artículo se ve mejor que el artículo de Wikipedia ...

Var(X)=(ba)212.
Ric
fuente
Esta página indica el resultado con el inicio de una prueba que me involucra demasiado, ya que parece requerir una comprensión del "Teorema fundamental de la programación lineal". sci.tech-archive.net/Archive/sci.math/2008-06/msg01239.html
Adam Russell
¡Gracias por ponerle nombre a esto! "La desigualdad de Popoviciu" es justo lo que necesitaba.
Adam Russell
2
1/4
2
Una distribución continua puede acercarse a una discreta (en términos de cdf) de manera arbitraria (por ejemplo, construir una densidad continua a partir de una determinada discreta colocando un pequeño núcleo en forma de Beta (4,4) centrado en cada punto de masa - del área apropiada - y permita que la desviación estándar de cada núcleo se reduzca a cero mientras mantiene su área constante). Tales límites discretos, como se discute aquí, también actuarán como límites en las distribuciones continuas. Espero que esté pensando en distribuciones unimodales continuas ... que de hecho tienen límites superiores diferentes.
Glen_b -Reinstala a Monica
2
Bueno ... mi respuesta fue la menos útil, pero la dejaría aquí debido a los buenos comentarios. Saludos, R
Ric