¿Para qué distribuciones la falta de correlación implica independencia?

11

Un recordatorio tradicional en las estadísticas es "la falta de correlación no implica independencia". Por lo general, este recordatorio se complementa con la afirmación psicológicamente relajante (y científicamente correcta) "cuando, sin embargo, las dos variables se distribuyen normalmente de manera conjunta , la falta de correlación implica independencia".

Puedo aumentar el conteo de excepciones felices de uno a dos: cuando dos variables están distribuidas por Bernoulli , una vez más, la falta de correlación implica independencia. Si e son dos rv de Bermoulli, X \ sim B (q_x), \; Y \ sim B (q_y) , para lo cual tenemos P (X = 1) = E (X) = q_x , y análogamente para Y , su covarianza esY X B ( q x ) ,XYP ( X = 1 ) = E ( X ) = q x YXB(qx),YB(qy)P(X=1)=E(X)=qxY

Cov(X,Y)=E(XY)E(X)E(Y)=SXYp(x,y)xyqxqy

=P(X=1,Y=1)qxqy=P(X=1Y=1)P(Y=1)qxqy

=(P(X=1Y=1)qx)qy

Por falta de correlación, requerimos que la covarianza sea cero.

Cov(X,Y)=0P(X=1Y=1)=P(X=1)

P(X=1,Y=1)=P(X=1)P(Y=1)

que es la condición que también se necesita para que las variables sean independientes.

Entonces mi pregunta es: ¿Conoces alguna otra distribución (continua o discreta) para la cual la falta de correlación implique independencia?

Significado: Suponga dos variables aleatorias que tienen distribuciones marginales que pertenecen a la misma distribución (quizás con diferentes valores para los parámetros de distribución involucrados), pero digamos con el mismo soporte, por ejemplo. dos exponenciales, dos triangulares, etc. ¿Todas las soluciones a la ecuación son tales que también implican independencia, en virtud de la forma / propiedades de las funciones de distribución involucradas? Este es el caso con los marginales normales (dado que también tienen una distribución normal bivariada), así como con los marginales de Bernoulli. ¿Hay otros casos?X,YCov(X,Y)=0

La motivación aquí es que generalmente es más fácil verificar si la covarianza es cero, en comparación con verificar si la independencia se mantiene. Entonces, si, dada la distribución teórica, al verificar la covarianza también se verifica la independencia (como es el caso con el caso de Bernoulli o normal), entonces sería útil saberlo.
Si se nos dan dos muestras de dos rv que tienen márgenes normales, sabemos que si podemos concluir estadísticamente a partir de las muestras que su covarianza es cero, también podemos decir que son independientes (pero solo porque tienen márgenes normales). Sería útil saber si podríamos concluir de la misma manera en los casos en que los dos vehículos tienen márgenes que pertenecen a alguna otra distribución.

Alecos Papadopoulos
fuente
Lógicamente, no hay duda aquí: tome cualquier par de variables independientes como la distribución. Ya sea que estén correlacionados o no, ¡son independientes por fiat ! Realmente necesita ser más preciso sobre lo que quiere decir con "distribución" y qué tipo de respuestas le resultarán útiles.
whuber
@whuber No entiendo tu comentario. Yo empiezo por uncorrelatedness y preguntar "si yo puedo demostrar que no están correlacionadas cuando se hace esto implica que también son independientes"? Dado que los dos resultados indicados en la pregunta dependen de que los rv tengan una distribución específica (normal o Bernoulli), pregunto "¿hay alguna otra distribución conocida para la cual, si las dos variables la siguen, este resultado se cumple"?
Alecos Papadopoulos
3
Tome dos variables independientes y deje que sea ​​su distribución. es una respuesta válida a su pregunta. Tenga en cuenta que está solicitando probar un condicional, que por definición es verdadero siempre que el consecuente sea verdadero, sin importar cuál sea el valor de verdad de su antecedente. Por lo tanto, según las reglas básicas de la lógica, todas las distribuciones de variables independientes son respuestas a su pregunta. F FX,YFF
whuber
@Whuber, evidentemente tienes razón. Agregué un texto relacionado con la motivación de esta pregunta, que espero aclare cuál fue mi motivación.
Alecos Papadopoulos
2
¿Con qué información comienzas cuando tomas esta decisión? De la formulación de su ejemplo, parece que se le da el pdf marginal para cada variable y la información de que cada par de variables no están correlacionadas. Luego decides si también son independientes. ¿Es esto exacto?
probabilidadislogic

Respuestas:

9

"Sin embargo, si las dos variables se distribuyen normalmente, entonces la falta de correlación implica independencia" es una falacia muy común .

Eso solo se aplica si se distribuyen conjuntamente de manera normal.

El contraejemplo que he visto con mayor frecuencia es normal e independiente Rademacher (por lo que es 1 o -1 con probabilidad 0.5 cada uno); entonces también es normal (claro al considerar su función de distribución), (el problema aquí es mostrar por ejemplo, iterando la expectativa en , y observando que es o con probabilidad 0.5 cada uno) y está claro que las variables son dependientes (por ejemplo, si sé entonces o , entonces la información sobreXN(0,1)YZ=XYCov(X,Z)=0E(XZ)=0YXZX2X2X>2Z>2Z<2ZXme da información sobre ). Z

También vale la pena tener en cuenta que las distribuciones marginales no determinan únicamente la distribución conjunta. Tome dos RV reales e con CDF marginales y . Entonces para cualquier la función:Y F X ( x ) G Y ( y ) α < 1XYFX(x)GY(y)α<1

HX,Y(x,y)=FX(x)GY(y)(1+α(1FX(x))(1FY(y)))

será un CDF bivariado. (Para obtener el marginal de tome el límite a medida que va al infinito, donde Viceversa para ). Claramente seleccionando diferentes valores de puede obtener diferentes distribuciones conjuntas!FX(x)HX,Y(x,y)yFY(y)=1Yα

Lepisma
fuente
En efecto. Olvidé la "articulación".
Alecos Papadopoulos
1
@Alecos Dado que las distribuciones marginales no determinan la distribución conjunta en general (solo edité mi respuesta para aclarar esto), ¿dónde deja esto su pregunta?
Silverfish
1
@Alecos Creo que ahora tengo una mejor comprensión de la sustancia de la pregunta: dadas dos distribuciones marginales, hay un conjunto infinito de posibles distribuciones conjuntas. ¿En qué circunstancias imponer la condición de covarianza cero nos deja con solo una de esas distribuciones conjuntas posibles, a saber, aquella en la que las variables aleatorias son independientes?
Silverfish
1
Si me quedo con el caso bivariado, con MGF conjunta y MGF marginales y , la pregunta es: ¿cuándo implica que ? MX,Y(s,t)MX(s)=MX,Y(s,0)MY(t)=MX,Y(0,t)MX,Y(s,t)=MX2stMX,Y(s,t)|s=0,t=0=sMX,Y(s,t)|s=0,t=0tMX,Y(s,t)|s=0,t=0MX,Y(s,t)=MX,Y(s,0)MX,Y(0,t)
Silverfish
2
@Silverman Comprobaría el concepto de subindependencia , en.wikipedia.org/wiki/Subindependence , para ver si este problema puede formularse en términos de funciones generadoras de momentos.
Alecos Papadopoulos