Un recordatorio tradicional en las estadísticas es "la falta de correlación no implica independencia". Por lo general, este recordatorio se complementa con la afirmación psicológicamente relajante (y científicamente correcta) "cuando, sin embargo, las dos variables se distribuyen normalmente de manera conjunta , la falta de correlación implica independencia".
Puedo aumentar el conteo de excepciones felices de uno a dos: cuando dos variables están distribuidas por Bernoulli , una vez más, la falta de correlación implica independencia. Si e son dos rv de Bermoulli, X \ sim B (q_x), \; Y \ sim B (q_y) , para lo cual tenemos P (X = 1) = E (X) = q_x , y análogamente para Y , su covarianza esY X ∼ B ( q x ) ,P ( X = 1 ) = E ( X ) = q x Y
Por falta de correlación, requerimos que la covarianza sea cero.
que es la condición que también se necesita para que las variables sean independientes.
Entonces mi pregunta es: ¿Conoces alguna otra distribución (continua o discreta) para la cual la falta de correlación implique independencia?
Significado: Suponga dos variables aleatorias que tienen distribuciones marginales que pertenecen a la misma distribución (quizás con diferentes valores para los parámetros de distribución involucrados), pero digamos con el mismo soporte, por ejemplo. dos exponenciales, dos triangulares, etc. ¿Todas las soluciones a la ecuación son tales que también implican independencia, en virtud de la forma / propiedades de las funciones de distribución involucradas? Este es el caso con los marginales normales (dado que también tienen una distribución normal bivariada), así como con los marginales de Bernoulli. ¿Hay otros casos?
La motivación aquí es que generalmente es más fácil verificar si la covarianza es cero, en comparación con verificar si la independencia se mantiene. Entonces, si, dada la distribución teórica, al verificar la covarianza también se verifica la independencia (como es el caso con el caso de Bernoulli o normal), entonces sería útil saberlo.
Si se nos dan dos muestras de dos rv que tienen márgenes normales, sabemos que si podemos concluir estadísticamente a partir de las muestras que su covarianza es cero, también podemos decir que son independientes (pero solo porque tienen márgenes normales). Sería útil saber si podríamos concluir de la misma manera en los casos en que los dos vehículos tienen márgenes que pertenecen a alguna otra distribución.
fuente
Respuestas:
"Sin embargo, si las dos variables se distribuyen normalmente, entonces la falta de correlación implica independencia" es una falacia muy común .
Eso solo se aplica si se distribuyen conjuntamente de manera normal.
El contraejemplo que he visto con mayor frecuencia es normal e independiente Rademacher (por lo que es 1 o -1 con probabilidad 0.5 cada uno); entonces también es normal (claro al considerar su función de distribución), (el problema aquí es mostrar por ejemplo, iterando la expectativa en , y observando que es o con probabilidad 0.5 cada uno) y está claro que las variables son dependientes (por ejemplo, si sé entonces o , entonces la información sobreX∼N(0,1) Y Z=XY Cov(X,Z)=0 E(XZ)=0 Y XZ X2 −X2 X>2 Z>2 Z<−2 ZX me da información sobre ). Z
También vale la pena tener en cuenta que las distribuciones marginales no determinan únicamente la distribución conjunta. Tome dos RV reales e con CDF marginales y . Entonces para cualquier la función:Y F X ( x ) G Y ( y ) α < 1X Y FX(x) GY(y) α<1
será un CDF bivariado. (Para obtener el marginal de tome el límite a medida que va al infinito, donde Viceversa para ). Claramente seleccionando diferentes valores de puede obtener diferentes distribuciones conjuntas!FX(x) HX,Y(x,y) y FY(y)=1 Y α
fuente