Si y , ¿es ?

9

Esto no es tarea.

Deje X ser una variable aleatoria. Si E[X]=kR y Var[X]=0 , ¿se deduce que Pr(X=k)=1 ?

Intuitivamente, esto parece obvio, pero no estoy seguro de cómo lo probaría. Sé con certeza que de los supuestos se deduce que E[X2]=k2 . Entonces

(RX reF(X))2=RX2 reF(X).
Esto no parece llevarme a ningún lado. Podría intentar
Var[X]=mi[(X-k)2].
Ahora desde (X-k)20 0 , se deduce que mi[(X-k)2]0 0 también.

Pero si tuviera que usar la igualdad,

mi[(X-k)2]=0 0
entonces mi instinto es que (X-k)20 0 , de modo que Xk .

¿Cómo sabría esto? Supongo una prueba por contradicción.

Si, por el contrario, Xk para todos X , entonces (X-k)2>0 0 , y mi[(X-k)2]>0 0 para todo X . Tenemos una contradicción, entonces Xk .

¿Suena bien mi prueba? Y si es así, ¿hay quizás una mejor manera de probar esta afirmación?

Clarinetista
fuente
@ user777 Probé ese método originalmente (como puede ver en mi ecuación), pero no estaba seguro de cómo proceder.
RX reF(X)=RX2 reF(X)
Clarinetista
3
Creo que la desigualdad de Chebyshev responde a esta pregunta de inmediato.
whuber
@whuber: al menos la declaración de Wikipedia de la desigualdad de Chebyshev requiere explícitamente una variación distinta de cero . Realmente no veo si necesitamos algún tipo de prueba elemental para el caso de varianza cero ...
Stephan Kolassa
1
@Stephan Puede mezclar fácilmente cualquier distribución no degenerada con rango y aplicar la desigualdad para mostrar que para todos y todo . Pr ( | X - k | > δ ) ε ε > 0 δ > 0(-δ,δ)Pr(El |X-kEl |>δ)εε>0 0δ>0 0
whuber

Respuestas:

6

Aquí hay una prueba teórica de medida para complementar a los demás, utilizando solo definiciones. Trabajamos en un espacio de probabilidad . Observe que y considere la integral . Suponga que para algunos , existe manera que en y . Entonces aproxima a desde abajo, así que según la definición estándar de como el supremum de integrales de funciones simples que se aproximan desde abajo, Y : = ( X - E X ) 20 E Y : = Y ( ω ) P ( d ω ) ϵ > 0 A F Y > ϵ A P ( A ) > 0 ϵ I A Y E Y E Y ϵ I(Ω,F,P)Y:=(XEX)20EY:=Y(ω)P(dω)ϵ>0AFY>ϵAP(A)>0ϵIAYEYϵ > 0 P ( { ω : Y > ϵ } ) = 0

EYϵIAP(dω)=ϵP(A)>0,
cual es una contradicción. Por lo tanto, , . Hecho.ϵ>0P({ω:Y>ϵ})=0 0
ekvall
fuente
5

Demuestre esto por contradicción. Por la definición de la varianza y sus suposiciones, tienes

0=VarX=R(xk)2f(x)dx,

donde es la densidad de probabilidad de . Tenga en cuenta que tanto como no son negativos.X ( x - k ) 2 f ( x )fX(xk)2f(x)

Ahora, si , entoncesP(X=k)<1

U:=(R{k})f1(]0,[)

tiene una medida mayor que cero, y . Pero entonceskU

U(xk)2f(x)dx>0,

(se podría incluir aquí un argumento de estilo ) y, por lo tanto,ϵ

0 0=VarX=R(X-k)2F(X)reXU(X-k)2F(X)reX>0 0,

y tu contradicción

Stephan Kolassa
fuente
2

¿Qué es ? ¿Es lo mismo que como?X = kXkX=k

ETA: Iirc,XkX(ω)=k  ωΩX=k a.s.

De todos modos, es obvio que

(XE[X])20

Suponer

E[XE[X])2]=0

Entonces

(XE[X])2=0 a.s.

Creo que el último paso implica la continuidad de la probabilidad ... o lo que hiciste (tienes razón).


También hay desigualdad de Chebyshev :

ϵ>0 ,

P(|Xk|ϵ)0ϵ2=0

P(|Xk|ϵ)=0

P(|Xk|<ϵ)=1

Buen hablar de nuevo .


Por cierto, ¿por qué es eso?

Rx dF(x)=Rx2 dF(x)

?

Me parece que mientrasLHS=kRHS=k2

BCLC
fuente
1
Sí, tienes razón. He editado la publicación
Clarinetista
@Clarinetist Editado el mío también: P
BCLC