Probar / refutar

10

Probar / refutar E [ 1 A | F t ] = 0 o 1 a.s. E [ 1 A | F s ] = E [ 1 A | F t ] como     E[1A|Ft]=0 or 1 a.s. E[1A|Fs]=E[1A|Ft] a.s.


Dado un espacio de probabilidad filtrado ( Ω , F , { F n } n N , P )(Ω,F,{Fn}nN,P) , dejar que A FAF .

Supongamos que t N s.t. E [ 1 A | F t ] = 1 a.s.    

tN s.t. E[1A|Ft]=1 a.s.
¿Se deduce que E [ 1 A | F s ] = E [ 1 A | F t ] como s > t ?    
E[1A|Fs]=E[1A|Ft] a.s. s>t ?
¿Qué pasa con s < ts<t ?

¿Qué pasa si en cambio t N s.t. E [ 1 A | F t ] = 0 a.s. ?     

tN s.t. E[1A|Ft]=0 a.s. ?
O qué pasa si E [ 1 A | F t ] = p a.s. para algunos p ( 0 , 1 ) ?    
E[1A|Ft]=p a.s. for some p(0,1) ?

Lo que probé:


Si E [ 1 A | F t ] = 1 , luego E [ 1 A ] = 1 , que es lo mismo que 1 A = 1 (casi seguro). En este caso E [ 1 A | F s ] = 1 (casi seguro) para cada s .E[1A|Ft]=1E[1A]=11A=1E[1A|Fs]=1s

Del mismo modo, si E [ 1 A | F t ] = 0 , luego E [ 1 A ] = 0 , que es lo mismo que 1 A = 0 (casi seguro). En este caso E [ 1 A | F s ] = 0 (casi seguro) para cada s .E[1A|Ft]=0E[1A]=01A=0E[1A|Fs]=0s

Si E [ 1 A | F t ] = p , para una constante p ( 0 , 1 ) , entonces tenemosE[1A|Ft]=pp(0,1)

E [ 1 A | F s ] = E [ E [ 1 A | F t ] | F s ] = E [ p | F s ] = p . Esto puede fallar si s > t .E[1A|Fs]=E[E[1A|Ft]|Fs]=E[p|Fs]=ps>t

Alternativamente para = p caso:=p

Deje F ser una variable aleatoria F t -medida limitada .FFt

E [ 1 AF ] = E [ E [ 1 AF | F t ] ] = E [ F E [ 1 A | F t ] ]

E[1AF]=E[E[1AF|Ft]]=E[FE[1A|Ft]]

= E [ p F ] = p E [ F ] = E [ 1 A ] E [ F ]

=E[pF]=pE[F]=E[1A]E[F]

lo que significa que 1 A y F son independientes. En otras palabras, σ ( A ) y F t son independientes. Entonces σ ( A ) y F s también son independientes si s < t y por lo tanto E [ 1 A | F s ] = E [ 1 A ] = p . Esto puede fallar si s > t .1AFσ(A)Ftσ(A)Fss<tE[1A|Fs]=E[1A]=ps>t

Supongo que la idea es que una constante es independiente de F s y F s medibleFsFs .

BCLC
fuente

Respuestas:

5

Su argumento parece ser válido, pero comienza asumiendo que E [ 1 A | F t ] = 1 . Sin embargo, la pregunta establece que E [ 1 A | F t ] { 0 , 1 } , que tomaría para significar que la variable aleatoria E [ 1 A | F t ] toma valores en el conjunto { 0 , 1 } es decir E [ 1 A | FE[1A|Ft]=1E[1A|Ft]{0,1}E[1A|Ft]{0,1}t ]= 1 B dondeB F t . La propiedad definitoria de esta expectativa condicional es queF 1 B d P =F 1 A d P para todos losF F t . En particular, tomarF=Bconduce aP(B)=P(AB), de donde podemos concluir queBAE[1A|Ft]=1BBFtF1BdP=F1AdPFFtF=BP(B)=P(AB)BA(excepto posiblemente en un conjunto de probabilidad cero). Sin embargo, también sabemos (como en el argumento que ha escrito) que E [ E [ 1 A | F t ] ] = E [ 1 B ] es decir P ( A ) = P ( B ) , por lo que la única conclusión posible es que A = B (excepto posiblemente para un conjunto de probabilidad cero).E[E[1A|Ft]]=E[1B]P(A)=P(B)A=B

Para s > t , F tF s , entonces la ley de la torre para expectativas condicionales implica que E [ 1 A | F t ] = E [ E [ 1 A | F t ] | F s ] . Pero E [ 1 A | F t ] = 1 A , entonces E [ 1 A | F s ] =s>tFtFsE[1A|Ft]=E[E[1A|Ft]|Fs]E[1A|Ft]=1A1 A . Entonces, todas las expectativas condicionales para s > t son iguales (a 1 A ). Para s < t , si A F s aún tendremos E [ 1 A | F s ] = 1 A . Por otro lado, si volvemos a una época en la que A no está en F s , entonces no creo que se pueda decir nada sobre E [ 1 A | F s ]E[1A|Fs]=1As>t1As<tAFsE[1A|Fs]=1AAFsE[1A|Fs]en general. Para un ejemplo concreto, vea este documento , Figura 1. Tomar A = { ω 2 } F 2F 1 , por ejemplo, da la secuencia de expectativas condicionales E [ 1 A | F 0 ] = 1A={ω2}F2F18 1Ω,E[1A| F1]=1E[1A|F0]=181Ω2 1{ω1,ω2},E[1A| F2]=1{ω2},E[1A| F3]=1{ω2}.E[1A|F1]=121{ω1,ω2}E[1A|F2]=1{ω2}E[1A|F3]=1{ω2}

S. Catterall reinstala a Mónica
fuente
Gracias S. Catterall. ¿Cómo sabes 1 P ( B ) = P ( A B ) B A ? 2 E [ 1 A | F t ] = 1 A ? También voy a editar la pregunta. Perdón por cualquier inconveniente. Voy a utilizar algunas de sus ideas para la ediciónP(B)=P(AB)BAE[1A|Ft]=1A
BCLC
1
Permítanme tratar de resumir en lenguaje natural; una filtración corresponde a una subdivisión cada vez más fina del espacio de resultados, y la expectativa condicional del evento A wrt sucesivos elementos de la filtración ("a medida que hay más información disponible") se vuelven más altos alrededor del evento (en el estado inicial de información F 0 es solo la distribución uniforme). El tiempo de detención es la superficie establecida del nivel estocástico del proceso (en el documento, la variable de resultado es binaria y se eligió el valor 0 ). AF00
ocramz
@ocramz y S. Catterall, edición realizada. ¿Cómo es por favor? ^ - ^
BCLC
1
En esta imagen, si estamos midiendo el evento A , pero el proceso de muestra termina en una configuración ω i que no pertenece a A , A se vuelve efectivamente "incognoscible" (medida 0 ). ¿Es correcta esta descripción? Además, cómo se comportan las expectativas condicionales en momentos consecutivos me recuerda el proceso iterativo de Bayes, ¿existe una conexión entre estos conceptos? @S. CatterallAωiAA0
ocramz
1
En respuesta a las preguntas en su primer comentario: si P ( B ) = P ( A B ) entonces, porque B es una unión disjunta de A B y A cB debemos tener P ( A cB ) = 0 , lo que significa que B A como Now, de la misma manera, podemos usar P ( A ) = P ( B ) para concluir queA = B F t as
S. Catterall Restablece a Mónica el