Una generalización de la Ley de Expectativas Iteradas

43

Recientemente me encontré con esta identidad:

E[E(Y|X,Z)|X]=E[Y|X]

Por supuesto, estoy familiarizado con la versión más simple de esa regla, a saber, que pero no pude encontrar justificación para su generalizaciónE[E(Y|X)]=E(Y)

Estaría agradecido si alguien pudiera señalarme una referencia no tan técnica para ese hecho o, mejor aún, si alguien pudiera presentar una prueba simple de este importante resultado.

JohnK
fuente
2
Si estuviera condicionado a alguna , ¿no quedaría exactamente fuera de la versión más simple? yx
Mehrdad

Respuestas:

36

TRATAMIENTO INFORMAL

Debemos recordar que la notación donde condicionamos las variables aleatorias es inexacta, aunque económica, como notación. En realidad, condicionamos el álgebra sigma que generan estas variables aleatorias. En otras palabras, significa . Esta observación puede parecer fuera de lugar en un "Tratamiento informal", pero nos recuerda que nuestras entidades de condicionamiento son colecciones de conjuntos (y cuando condicionamos un solo valor, entonces este es un conjunto único). ¿Y qué contienen estos conjuntos? Contienen la información con la que los valores posibles de la variable aleatoria nos proporcionan sobre lo que puede suceder con la realización de .E[YX]E[Yσ(X)]XY
Introducir el concepto de Información, nos permite pensar (y usar) la Ley de Expectativas Iteradas (a veces llamada "Propiedad de la Torre") de una manera muy intuitiva:
el álgebra sigma generado por dos variables aleatorias, es al menos como grande como el generado por una variable aleatoria: en el significado teórico de conjuntos adecuado. Entonces, la información sobre contenida en es al menos tan grande como la información correspondiente en . Ahora, como insinuación de notación, establezca y . Luego se puede escribir el LHS de la ecuación que estamos viendoσ(X)σ(X,Z)Yσ(X,Z)σ(X)
σ(X)Ixσ(X,Z)Ixz

E[E(Y|Ixz)|Ix]
Describiendo verbalmente la expresión anterior que tenemos: "¿cuál es la expectativa de {el valor esperado de dada la información } propuesta que tenemos información disponible única ?" YIxzIx

¿Podemos de alguna manera "tener en cuenta" ? No, solo sabemos . Pero si usamos lo que tenemos (ya que estamos obligados por la expresión que queremos resolver), entonces esencialmente estamos diciendo cosas sobre bajo el operador de expectativas, es decir, decimos " ", no más - acabamos de agotar nuestra información.IxzIxYE(YIx)

Por lo tanto,

E[E(Y|Ixz)|Ix]=E(Y|Ix)

Si alguien más no lo hace, volveré para el tratamiento formal.

Un (poco más) TRATAMIENTO FORMAL

Veamos cómo dos libros muy importantes de teoría de la probabilidad, Probabilidad y Medida de P. Billingsley (3d ed.-1995) y D. Williams "Probabilidad con Martingales" (1991), tratan la cuestión de probar la "Ley de Expectativas Iteradas":
Billingsley dedica exactamente tres líneas a la prueba. Williams, y cito, dice

"(la Propiedad de la Torre) es prácticamente inmediata desde la definición de expectativa condicional".

Esa es una línea de texto. La prueba de Billingsley no es menos opaca.

Por supuesto, tienen razón: esta propiedad importante y muy intuitiva de la expectativa condicional deriva esencialmente directamente (y casi de inmediato) de su definición: el único problema es que sospecho que esta definición no se enseña, o al menos no se destaca, fuera de la probabilidad o medir círculos teóricos. Pero para mostrar (casi) tres líneas que contiene la Ley de Expectativas Iteradas, necesitamos la definición de expectativa condicional, o más bien, su propiedad definitoria .

Deje un espacio de probabilidad , y una variable aleatoria integrable . Let ser un sub álgebra de , . Entonces existe una función que es medible, es integrable y (esta es la propiedad definitoria)(Ω,F,P)YGσFGFWG

E(W1G)=E(Y1G)GG[1]

donde es la función de indicador del conjunto . Decimos que es ("una versión de") la expectativa condicional de dada , y escribimos El detalle crítico a tener en cuenta aquí es que la expectativa condicional , tiene el mismo valor esperado como lo hace, no sólo por toda la , pero en cada subconjunto de .1GGWYGW=E(YG)a.s.
YGGG

(Intentaré ahora presentar cómo la propiedad de la Torre se deriva de la definición de expectativa condicional).

W es una variable aleatoria medible. Considere a continuación, algunos sub álgebra, por ejemplo . Entonces . Entonces, de manera análoga a la anterior, tenemos la expectativa condicional de dado , digamos que eso se caracteriza por GσHGGHGGWHU=E(WH)a.s.

E(U1G)=E(W1G)GH[2]

Como , las ecuaciones y nos danHG[1][2]

E(U1G)=E(Y1G)GH[3]

Pero esta es la propiedad definitoria de la expectativa condicional de dado . YHEntonces tenemos derecho a escribir Como también tenemos por construcción , acabamos de demostrar la propiedad de la Torre, o el forma general de la Ley de Expectativas Iteradas - en ocho líneas.U=E(YH)a.s.
U=E(WH)=E(E[YG]H)

Alecos Papadopoulos
fuente
66
(+1) Esta es una forma útil de describir un concepto abstracto y difícil. Sin embargo, creo que la frase "... no es más grande ..." debería ser "no es más pequeña". Mejor aún, esa sección podría aclararse eliminando los negativos y utilizando una construcción paralela, como en "El álgebra sigma generado por dos variables es al menos tan grande como el generado por una variable aleatoria ... Así que la información sobre contenía in es al menos tan grande como la información correspondiente en ". Yσ(X,Z)σ(X)
whuber
Gracias a los dos, cc @whuber. Este es un teorema muy útil.
JohnK
@ whuber Gracias por ver esto y por la sugerencia.
Alecos Papadopoulos
24

La forma en que entiendo las expectativas condicionales y enseño a mis alumnos es la siguiente:

expectativa condicional es una imagen tomada por una cámara con resoluciónE[Y|σ(X)]σ(X)

Como mencionó Alecos Papadopoulos, la notación es más precisa que . A lo largo de la línea de la cámara, uno puede pensar en como el objeto original, por ejemplo, un paisaje, un paisaje. es una imagen tomada por una cámara con resolución . La expectativa es un operador promedio (¿operador "borroso"?). El escenario puede contener muchas cosas, pero la imagen que tomaste usando una cámara con baja resolución ciertamente hará que algunos detalles desaparezcan, por ejemplo, puede haber un OVNI en el cielo que se puede ver a simple vista pero no aparecer en tu foto tomada por (iphone 3?)E[Y|σ(X)]E[Y|X]YE[Y|σ(X,Z)]σ(X,Z)

Si la resolución es tan alta que , entonces esta imagen puede capturar cada detalle del escenario real. En este caso, tenemos que .σ(X,Z)=σ(Y)E[Y|σ(Y)]=Y

Ahora, se puede ver como: usando otra cámara con resolución (por ejemplo, iphone 1) que es inferior a (p. Ej., Iphone 3) y tome una imagen en esa imagen generada por la cámara con resolución , entonces debe quedar claro que esta imagen en una imagen debe ser la misma que si originalmente solo use una cámara de baja resolución en el escenario.E[E[Y|σ(X,Z)]|σ(X)]σ(X)σ(X,Z)σ(X,Z)σ(X)

Esto proporciona intuición sobre . De hecho, esta misma intuición nos dice que todavía. Esto se debe a que: si su primera imagen es tomada por el iPhone 1 (es decir, baja resolución), y ahora desea utilizar una cámara mejor (por ejemplo, el iPhone 3) para generar otra foto en la primera foto, entonces no hay forma de que Puede mejorar la calidad de la primera foto.E[E[Y|X,Z]|X]=E[Y|X]E[E[Y|X]|X,Z]=E[Y|X]

KevinKim
fuente
2
¡quiéralo! :) Gran explicación.
jessica
1
@jessica Me alegro de que ayude :-) Me llevó un tiempo encontrar esta explicación
KevinKim
21

En la Ley de Expectativa Iterada (LIE), , esa expectativa interna es una variable aleatoria que resulta ser una función de , digamos , y no una función de . Que la expectativa de esta función de igual a la expectativa de es una consecuencia de una MENTIRA. Todo esto es, con agitación manual, solo la afirmación de que el valor promedio de se puede encontrar promediando los valores promedio de en diversas condiciones. En efecto, todo es solo una consecuencia directa de la ley de probabilidad total. Por ejemplo, si yE[E[YX]]=E[Y]Xg(X)YXYYYXY son variables aleatorias discretas con pmf conjunta , luego \ scriptstyle {\ text {RV} ~ E [Y \ mid X] ~ \ text {tiene valor} ~ E [Y \ mid X = x] ~ \ text {when} ~ X = x} \ end {align} Aviso cómo es esa última expectativa con respecto a ;pX,Y(x,y)

E[Y]=yypY(y)definition=yyxpX,Y(x,y)write in terms of joint pmf=yyxpYX(yX=x)pX(x)write in terms of conditional pmf=xpX(x)yypYX(yX=x)interchange order of summation=xpX(x)E[YX=x]inner sum is conditional expectation=E[E[YX]]RV E[YX] has value E[YX=x] when X=x
XE[YX] es una función de , no de , pero sin embargo su media es la misma que la media de .XYY

La MENTIRA generalizada que está mirando tiene a la izquierda en la que la expectativa interna es una función de dos variables aleatorias y . El argumento es similar al descrito anteriormente, pero ahora tenemos que mostrar que la variable aleatoria es igual a otra variable aleatoria. Hacemos esto mirando el valor de cuando tiene el valor . Saltando las explicaciones, tenemos que E[E[YX,Z]X]h(X,Z)XZ E[YX]E[YX]Xx

E[YX=x]=yypYX(yX=x)=yypX,Y(x,y)pX(x)=yyzpX,Y,Z(x,y,z)pX(x)=yyzpYX,Z(yX=x,Z=z)pX,Z(x,z)pX(x)=zpX,Z(x,z)pX(x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)yypYX,Z(yX=x,Z=z)=zpZX(zX=x)E[YX=x,Z=z)=E[E[YX,Z]X=x]
Tenga en cuenta que el penúltimo lado derecho es la fórmula del valor condicional esperado de la variable aleatoriaZ] (una función de y ) condicionadaE[YX,Z]XZen el valor de . Estamos arreglando para que tenga un valor , multiplicando los valores de la variable aleatoria por el valor condicional pmf de dado , y sumando todos esos términos.XXxE[YX,Z]ZX

Por lo tanto, para cada valor de la variable aleatoria , el valor de la variable aleatoria (que notamos anteriormente es una función de , no de ), es el mismo que el valor de la variable aleatoria variable , es decir, estas dos variables aleatorias son iguales. ¿Te mentiría yo?X E [ Y X ] X Y E [ E [ Y X , Z ] X ]xXE[YX]XYE[E[YX,Z]X]

Dilip Sarwate
fuente