Funciones de variables aleatorias independientes

25

¿Es la afirmación de que las funciones de las variables aleatorias independientes son independientes, verdad?

He visto que el resultado a menudo se usa implícitamente en algunas pruebas, por ejemplo, en la prueba de independencia entre la media muestral y la varianza muestral de una distribución normal, pero no he podido encontrar justificación para ello. Parece que algunos autores lo toman como dado, pero no estoy seguro de que este sea siempre el caso.

JohnK
fuente

Respuestas:

33

La definición más general y abstracta de independencia hace que esta afirmación sea trivial y proporciona una condición de calificación importante: que dos variables aleatorias son independientes significa que las álgebras sigma que generan son independientes. Debido a que el álgebra sigma generado por una función medible de un álgebra sigma es un subálgebra, a priori cualquier función medible de esas variables aleatorias tiene álgebras independientes, de donde esas funciones son independientes.

(Cuando una función no es medible, generalmente no crea una nueva variable aleatoria, por lo que el concepto de independiente ni siquiera se aplicaría).


Desenvolvemos las definiciones para ver qué tan simple es esto. Recuerde que una variable aleatoria es una función de valor real definida en el "espacio muestral" Ω (el conjunto de resultados que se estudian a través de la probabilidad).XΩ

  1. Una variable aleatoria se estudia por medio de las probabilidades de que su valor se encuentre dentro de varios intervalos de números reales (o, más generalmente, conjuntos construidos de manera simple fuera de los intervalos: estos son los conjuntos medibles de Borel de números reales).X

  2. Correspondiente a cualquier conjunto medible Borel es el caso de X * ( I ) que consiste en todos los resultados w para el que X ( omega ) radica en que .I X(I)ωX(ω)I

  3. El álgebra sigma generado por está determinado por la recopilación de todos estos eventos.X

  4. La definición ingenua dice que dos variables aleatorias e Y son independientes "cuando sus probabilidades se multiplican". Es decir, cuando soy un conjunto medible de Borel y J es otro, entoncesXYIJ

    Pr(X(ω)I and Y(ω)J)=Pr(X(ω)I)Pr(Y(ω)J).

  5. Pero en el lenguaje de los eventos (y las álgebras sigma) es lo mismo que

    Pr(ωX(I) and ωY(J))=Pr(ωX(I))Pr(ωY(J)).

Considere ahora dos funciones y suponga que f X y g Y son variables aleatorias. (El círculo es una composición funcional: ( f X ) ( ω ) = f ( X ( ω ) ) . Esto es lo que significa que f sea ​​una "función de una variable aleatoria".) Aviso: esto es solo elemental teoría de conjuntos: quef,g:RRfXgY(fX)(ω)=f(X(ω))f

(fX)(I)=X(f(I)).

En otras palabras, cada evento generado por (que está a la izquierda) es automáticamente un evento generado por XfXX (como se muestra en la forma del lado derecho). Por lo tanto (5) se mantiene automáticamente para y g Y : ¡no hay nada que verificar!fXgY


NB Puede reemplazar "real-valued" en todas partes por "con valores en " sin necesidad de cambiar nada más de manera material. Esto cubre el caso de las variables aleatorias con valores vectoriales.Rd

whuber
fuente
1
Las álgebras Sigma son cosas avanzadas (nivel de posgrado).
Aksakal
3
@ Aksakal Depende de a qué escuela vayas o qué libros leas. (He enseñado con éxito este material en el nivel de pregrado de segundo año. También hay relatos maravillosamente accesibles de esta teoría a nivel de pregrado, como los textos de Steven Shreve sobre cálculo estocástico, que están dirigidos a estudiantes con solo antecedentes de cálculo). Pero, ¿cómo es eso relevante? Cualquier justificación, incluso una sofisticada, debe preferirse a una afirmación injustificada.
whuber
1
Eres muy amable de tomar todas esas molestias para ayudar a alguien que hizo una pregunta. Gracias de nuevo. Y tiene razón, las definiciones no son demasiado desalentadoras después de todo.
JohnK
13

Considere esta prueba "menos avanzada":

Sea , donde X , Y son variables aleatorias independientes yf , g son funciones medibles. Entonces: P { f ( X ) x  y  g ( Y ) yX:ΩXRn,Y:ΩYRm,f:RnRk,g:RmRpX,Yf,g Usando la independencia de X e Y , P ( { X { w R n : f ( )

P{f(X)x and g(Y)y}=P({f(X)x}{g(Y)y})=P({X{wRn:f(w)x}}{Y{wRm:g(w)y}}).
XY
P({X{wRn:f(w)x}}{Y{wRm:g(w)y}})==P{X{wRn:f(w)x}P{Y{wRm:g(w)y}}=P{f(X)x}P{g(Y)y}.

{f(X)x}{wΩX:f(X(w))x}={X{wRn:f(w)x}},
Xf(X)Y
Guilherme Salomé
fuente
2
+1. Gracias por esta contribución, que tan claramente se centra en la idea esencial. ¡Bienvenido a nuestro sitio!
whuber
7

sol(X)h(Y)solhXY

Aksakal
fuente
Gracias, actualmente estoy estudiando Hogg & Craig y MGB. Billingsley es el siguiente paso lógico.
JohnK
3
Billinglsey es una tortura a menos que seas matemático y ya hayas estudiado medidas. La introducción de Partarathy es un libro 2 en 1 mucho más fácil, el texto de probabilidad de Alan Karr también es fácil de leer.
Aksakal
Otro texto más fácil que el de Billingsley: probabilidad.ca/jeff/grprobbook.html
Adrian
0

No como una alternativa, sino como una adición a las respuestas brillantes anteriores, tenga en cuenta que este resultado es de hecho muy intuitivo.

Por lo general, pensamos que X y Y ser independiente significa que conocer el valor de X no proporciona información sobre el valor de Yy viceversa. Obviamente, esta interpretación implica que no se puede "exprimir" una información aplicando una función (o por cualquier otro medio en realidad).

Alexis
fuente