Esperaba que alguien pudiera proponer un argumento que explicara por qué las variables aleatorias e , tiene la distribución normal estándar, son estadísticamente independientes. La prueba de este hecho se deduce fácilmente de la técnica de MGF, pero me parece extremadamente contra-intuitiva.
Por lo tanto, agradecería la intuición aquí, si la hay.
Gracias de antemano.
EDITAR : los subíndices no indican estadísticas de pedidos, sino observaciones IID de la distribución normal estándar.
Respuestas:
Estos son datos distribuidos normales estándar: tenga en cuenta que la distribución es simétrica circulatoria.
Cuando cambia a e Y 2 = X 1 + X 2 , efectivamente gira y escala el eje, así: Este nuevo sistema de coordenadas tiene el mismo origen que el original, y los ejes son ortogonal. Debido a la simetría circulatoria, las variables aún son independientes en el nuevo sistema de coordenadas.Y1=X2−X1 Y2=X1+X2
fuente
El resultado funciona para conjuntamente normal (es decir, con correlación, - 1 < ρ < 1(X1,X2) −1<ρ<1 ), con común .σ
Si conoce un par de resultados básicos, esto es todo lo que necesita:
El enfoque de dobiwan es esencialmente bueno, es solo que el resultado es más general que el caso tratado allí.
fuente
El resultado que usted afirma que es verdadero no es cierto en general, ni siquiera para el caso en que todo lo que se sabe es que y X 2 son variables aleatorias normales con una varianza idéntica, pero el resultado se cumple para elX1 X2 interpretación habitual de la condición usted dijo más tarde:
La interpretación habitual de las últimas palabras en esta declaración es, por supuesto, que y X 2 son variables aleatorias independientes (normales) y, por lo tanto, variables aleatorias conjuntas normales.X1 X2
fuente
I first argue for general identically distributedX1,X2 that the conditional mean of Y1 conditional on Y2 is constant 0 . Based on this, I argue that the covariance of Y1,Y2 is 0. Then, under normality, zero covariance implies independence.
The conditional mean
Intuition:X1+X2=y does not imply anything about which component contributed more to the sum (e.g., X1=x,X2=y−x is as likely as X1=y−x,X2=x ). Thus, the expected difference must be 0.
Proof:X1 and X2 have identical distribution and X1+X2 is symmetric with respect to the indexing. Thus, for symmetry reasons, the conditional distribution X1∣Y2=y must be equal to the conditional distribution X2∣Y2=y . Hence, the conditional distributions also have the same mean, and
(Caveat: I did not consider the possibility that the conditional mean might not exist.)
Constant conditional mean implies zero correlation/covariance
Intuition: correlation measures how muchY1 tends to increase when Y2 increases. If observing Y2 never changes our mean of Y1 , Y1 and Y2 are uncorrelated.
Proof: By definition, covariance is
Independence
Just by assuming identical distributions forX1,X2 , it was shown that Y1 and Y2 are uncorrelated. When X1,X2 are jointly normal (for example, iid. normal as in the question), their linear combinations Y1,Y2 are also jointly normal and thus uncorrelatedness implies independence.
fuente