Sé empíricamente que ese es el caso. Acabo de desarrollar modelos que se encuentran con este enigma. También sospecho que no es necesariamente una respuesta sí / no. Quiero decir que si A y B están correlacionados con C, esto puede tener alguna implicación con respecto a la correlación entre A y B. Pero, esta implicación puede ser débil. Puede ser solo una señal de dirección y nada más.
Esto es lo que quiero decir ... Digamos que A y B tienen una correlación de 0.5 con C. Dado que, la correlación entre A y B bien podría ser 1.0. Creo que también podría ser 0.5 o incluso más bajo. Pero, creo que es poco probable que sea negativo. ¿Estás de acuerdo con eso?
Además, ¿hay alguna implicación si está considerando el coeficiente de correlación de Pearson estándar o, en cambio, el coeficiente de correlación de Spearman (rango)? Mis observaciones empíricas recientes se asociaron con el coeficiente de correlación de Spearman.
Respuestas:
Debido a que la correlación es una propiedad matemática de las distribuciones multivariadas, se puede obtener una idea puramente a través de los cálculos, independientemente de la génesis estadística de esas distribuciones.
Para las correlaciones de Pearson , tenga en cuenta las variables multinormales , , . Es útil trabajar con ellos porque cualquier matriz definida no negativa en realidad es la matriz de covarianza de algunas distribuciones multinormales, lo que resuelve la cuestión de la existencia. Si nos atenemos a las matrices con en la diagonal, las entradas fuera de la diagonal de la matriz de covarianza serán sus correlaciones. Escribir la correlación de e como , la correlación de y como , y la correlación de y comoY Z 1 X Y ρ Y Z τ X Z σX Y Z 1 X Y ρ Y Z τ X Z σ , calculamos que
Cuando esto implica que . Para decirlo de otra manera: cuando tanto como son de gran magnitud, y deben tener una correlación distinta de cero.ρ 2 + τ 2 ≤ 1 ρ τ X Zσ=0 ρ2+τ2≤1 ρ τ X Z
Si , entonces es posible cualquier valor no negativo de (entre y por supuesto).σ 0 1ρ2=τ2=1/2 σ 0 1
Cuando , se permiten valores negativos de . Por ejemplo, cuando , puede estar entre y .σ ρ = τ = 1 / 2 σ - 1 / 2 1ρ2+τ2<1 σ ρ=τ=1/2 σ −1/2 1
Estas consideraciones implican que de hecho hay algunas restricciones en las correlaciones mutuas. Las restricciones (que dependen solo de la definición no negativa de la matriz de correlación, no de las distribuciones reales de las variables) pueden ajustarse dependiendo de los supuestos sobre las distribuciones univariadas. Por ejemplo, es fácil ver (y probar) que cuando las distribuciones de e no están en la misma familia de escala de ubicación, sus correlaciones deben ser estrictamente menores que en tamaño. (Prueba: una correlación de implica que e están linealmente relacionados como)Y 1 ± 1 X YX Y 1 ±1 X Y
En cuanto a las correlaciones de rango de Spearman , considere tres observaciones trivariadas , y de . Sus correlaciones de rango mutuo son , y . Así, incluso la señal de la correlación de rango de y puede ser la inversa de los signos de las correlaciones de y y y .( 2 , 3 , 1 ) ( 3 , 2 , 3 ) ( X , Y , Z ) 1 / 2 1 / 2 - 1 / 2 Y Z X Y X Z(1,1,2) (2,3,1) (3,2,3) (X,Y,Z) 1/2 1/2 −1/2 Y Z X Y X Z
fuente
Estoy en un viaje anual de pesca en este momento. Existe una correlación entre la hora del día que pesco y la cantidad de peces que pesco. También existe una correlación entre el tamaño del cebo que uso y la cantidad de peces que atrapo. No hay correlación entre el tamaño del cebo y la hora del día.
fuente
La correlación es el coseno del ángulo entre dos vectores. En la situación descrita, (A, B, C) es un triple de observaciones, realizadas n veces, siendo cada observación un número real. La correlación entre A y B es el coseno del ángulo entre y medido en el espacio euclidiano n-dimensional. Entonces nuestra situación se reduce a considerar 3 vectores , y en n espacio dimensional. Tenemos 3 pares de vectores y, por lo tanto, 3 ángulos. Si dos de los ángulos son pequeños (alta correlación), el tercero también será pequeño. Pero decir "correlacionado" no es una gran restricción: significa que el ángulo está entre 0 yVA=A−E(A) VB=B−E(B) VA VB VC π/2 . En general, esto no da ninguna restricción en absoluto en el tercer ángulo. Dicho de otra manera, comience con cualquier ángulo menor que entre y (cualquier correlación excepto -1). Deje el ángulo entre y . Entonces C estará correlacionado con A y B.π VA VB VC VA VB
fuente
Como complemento de la respuesta de Whuber: la fórmula presentada
puede transformarse en la siguiente desigualdad (Olkin, 1981):
Una representación gráfica de los límites superior e inferior para ve así:ρ
Olkin, I. (1981). Restricciones de rango para matrices de correlación producto-momento. Psychometrika, 46, 469-472. doi: 10.1007 / BF02293804
fuente
Creo que es mejor preguntar "¿por qué DEBERÍAN estar correlacionados?" o, tal vez "¿Por qué debería tener alguna correlación particular?"
El siguiente código R muestra un caso en el que x1 y x2 están correlacionadas con Y, pero tienen una correlación 0 entre sí
La correlación con Y puede fortalecerse reduciendo .3 a .1 o lo que sea
fuente
Dejaré la demostración estadística a aquellos que están mejor preparados que yo para ello ... pero intuitivamente digo que el evento A genera un proceso X que contribuye a la generación del evento C. Luego, A está correlacionado con C (a través de X). B, por otro lado, genera Y, que también da forma a C. Por lo tanto, A está correlacionado con C, B está correlacionado con C pero A y B no están correlacionados.
fuente
Para aquellos que quieren algo de intuición, una correlación puede verse como un coseno de algún ángulo. Entonces, considere tres vectores en 3D, digamos A, B y C, cada uno correspondiente a una variable. La pregunta es determinar el rango de ángulos posibles entre A y C cuando se conocen el ángulo entre A y B, así como el ángulo entre B y C. Para eso, puedes jugar con una herramienta en línea sin instalar ningún software. Simplemente vaya a la página http://www.montefiore.ulg.ac.be/~pierard/chained_correlations.php
fuente
Tomemos un ejemplo:
Para algunos x, A y B tendrán una correlación significativa, de manera similar, A y C también tendrán una correlación significativa, pero la correlación de B y C no será significativa.
Entonces, no es necesariamente cierto que si A y B están correlacionados y A y C están correlacionados, entonces B y C también están correlacionados.
Nota: Para una comprensión profunda, piense en este ejemplo en datos grandes.
fuente