En primer lugar, aprecio que las discusiones sobre generalmente provoquen explicaciones sobre (es decir, el coeficiente de determinación en la regresión). El problema que estoy tratando de responder es generalizar eso a todas las instancias de correlación entre dos variables.
Entonces, me ha intrigado la variación compartida durante bastante tiempo. Me han ofrecido algunas explicaciones, pero todas parecen problemáticas:
Es solo otro término para covarianza. Esto no puede ser el caso, ya que se diferencia de la literatura de análisis factorial entre la ACP y la EPT al afirmar que este último representa la varianza compartida y la antigua no (PCA, obviamente, se Contabilización de covarianza en el que está operando a través de una matriz de covarianza, por lo compartido la varianza debe ser un concepto distinto).
Es el coeficiente de correlación al cuadrado () Ver:
Esto tiene un poco más de sentido. El problema aquí es interpretar cómo eso implica que es una varianza compartida. Por ejemplo, una interpretación de 'compartir varianza' es. no se reduce a eso, o de hecho un concepto fácilmente intuitivo [; que es un objeto de 4 dimensiones].
Los enlaces anteriores intentan explicarlo a través de un diagrama de Ballentine. No ayudan En primer lugar, los círculos son del mismo tamaño (lo que parece ser importante para la ilustración por alguna razón), lo que no tiene en cuenta las variaciones desiguales. Se podría suponer que se trata de los diagramas de Ballentine para las variables estandarizadas, por lo tanto, la misma varianza, en cuyo caso el segmento superpuesto explicaría la covarianza entre dos variables estandarizadas (la correlación). Entoncesno .
TL; DR: Las explicaciones de la varianza compartida dicen esto:
Al cuadrar el coeficiente, usted sabe cuánta varianza, en términos porcentuales, comparten las dos variables.
¿Por qué sería ese el caso?
fuente
Respuestas:
Uno solo puede adivinar lo que un autor en particular podría decir con "variación compartida". Podríamos esperar circunscribir las posibilidades considerando qué propiedades debería tener este concepto (intuitivamente). Sabemos que "las variaciones agregan": la varianza de una sumaX+ ε es la suma de las variaciones de X y ε cuando X y ε tener cero covarianza Es natural definir la "varianza compartida" deX con la suma como la fracción de la varianza de la suma representada por la varianza de X . Esto es suficiente para implicar las variaciones compartidas de cualquiera de las dos variables aleatorias.X y Y debe ser el cuadrado de su coeficiente de correlación.
Este resultado da sentido a la interpretación de un coeficiente de correlación al cuadrado como una "varianza compartida": en un sentido adecuado, realmente es una fracción de una varianza total que puede asignarse a una variable en la suma.
Los detalles siguen.
Principios y sus implicaciones
Por supuesto siY= X , su "varianza compartida" (llamémosla "SV" de ahora en adelante) debería ser del 100%. Pero que siY y X son versiones escaladas o desplazadas una de otra? Por ejemplo, ¿y siY representa la temperatura de una ciudad en grados F y X representa la temperatura en grados C? Me gustaría sugerir que en tales casosX y Y aún debe tener un 100% de SV, para que este concepto siga siendo significativo independientemente de cómo X y Y podría medirse:
para cualquier númeroα , γ y números distintos de cero β, δ .
Otro principio podría ser que cuandoε es una variable aleatoria independiente de X , entonces la varianza de X+ε puede descomponerse únicamente en dos partes no negativas,
sugiriendo que intentemos definir SV en este caso especial como
Dado que todos estos criterios son solo de segundo orden, solo involucran el primer y segundo momento de las variables en forma de expectativas y variaciones, relajemos el requisito de queX y ε ser independiente y solo exigir que no estén correlacionados . Esto hará que el análisis sea mucho más general de lo que podría ser.
Los resultados
Estos principios, si los acepta, conducen a un concepto único, familiar e interpretable. El truco será reducir el caso general al caso especial de una suma, donde podemos aplicar la definición( 2 ) .
Dado(X,Y) , simplemente intentamos descomponer Y en una versión escalada y cambiada de X más una variable que no está correlacionada con X : es decir, busquemos constantes (si es posible) α y β y una variable aleatoria ϵ para cual
conCov(X, ε ) = 0 . Para que la descomposición tenga alguna posibilidad de ser única, debemos exigir
para que una vezβ es encontrado, α Esta determinado por
Esto se parece mucho a la regresión lineal y de hecho lo es. El primer principio dice que podemos reescalarX y Y tener una varianza unitaria (suponiendo que cada una tenga una varianza distinta de cero) y que cuando se hace, los resultados de regresión estándar afirman el valor de β en ( 3 ) es la correlación de X y Y :
Además, tomando las variaciones de( 1 ) da
Insinuando
Por consiguiente
Tenga en cuenta que debido al coeficiente de regresión enY (cuando está estandarizado a la varianza de la unidad) es ρ ( Y, X) = ρ ( X, Y) , la "varianza compartida" en sí es simétrica, lo que justifica una terminología que sugiere el orden de X y Y No importa:
fuente