Por que

8

En primer lugar, aprecio que las discusiones sobre generalmente provoquen explicaciones sobre (es decir, el coeficiente de determinación en la regresión). El problema que estoy tratando de responder es generalizar eso a todas las instancias de correlación entre dos variables.r2R2

Entonces, me ha intrigado la variación compartida durante bastante tiempo. Me han ofrecido algunas explicaciones, pero todas parecen problemáticas:

  1. Es solo otro término para covarianza. Esto no puede ser el caso, ya que se diferencia de la literatura de análisis factorial entre la ACP y la EPT al afirmar que este último representa la varianza compartida y la antigua no (PCA, obviamente, se Contabilización de covarianza en el que está operando a través de una matriz de covarianza, por lo compartido la varianza debe ser un concepto distinto).

  2. Es el coeficiente de correlación al cuadrado (r2) Ver:

Esto tiene un poco más de sentido. El problema aquí es interpretar cómo eso implica que es una varianza compartida. Por ejemplo, una interpretación de 'compartir varianza' escov(A,B)/[var(A)+var(B)]. r2 no se reduce a eso, o de hecho un concepto fácilmente intuitivo [cov(A,B)2/(var(A)×var(B)); que es un objeto de 4 dimensiones].

Los enlaces anteriores intentan explicarlo a través de un diagrama de Ballentine. No ayudan En primer lugar, los círculos son del mismo tamaño (lo que parece ser importante para la ilustración por alguna razón), lo que no tiene en cuenta las variaciones desiguales. Se podría suponer que se trata de los diagramas de Ballentine para las variables estandarizadas, por lo tanto, la misma varianza, en cuyo caso el segmento superpuesto explicaría la covarianza entre dos variables estandarizadas (la correlación). Entoncesrno r2.

TL; DR: Las explicaciones de la varianza compartida dicen esto:

Al cuadrar el coeficiente, usted sabe cuánta varianza, en términos porcentuales, comparten las dos variables.

¿Por qué sería ese el caso?

Sue Doh Nimh
fuente
1
Ambos puntos ("covarianza" y "r-cuadrado") son interpretaciones correctas. Te recomiendo esta mi respuesta:r2es el producto de dos magnitudes relativas de la covarianza, y es una probabilidad cuasi conjunta.
ttnphns
1
Dentro de la EPT, generalmente dicen "varianza común", no "varianza compartida". La varianza común es el reino de la colinealidad total. Por otro lado, el término "varianza compartida" no está del todo definido (su pregunta es sobre cómo definirlo).
ttnphns
1
Los diagramas de Venn (Ballentine) no pueden relacionar adecuadamente el concepto de r2porque la magnitud de covarianza no es el área de intersección de los dos círculos (varianzas). La covarianza depende de ambas variaciones. El tamaño de la covarianza puede ser mayor que el tamaño de la varianza más pequeña (que ciertamente es imposible de mostrar en Venn por intersección).
ttnphns
1
Eso nos lleva de vuelta a la definición regresiva de r2 como 1SSresid/SStot. Así que si la situación es homoscedastic se puede ver fácilmente a sí mismo ...
ttnphns
1
La covarianza es "varianza compartida", magnitud bruta de if. Normalizado a una magnitud relativa, puede ser de dos versiones, r y r-sq. r-sq puede interpretarse como% de la varianza compartida en la varianza combinada.
ttnphns

Respuestas:

3

Uno solo puede adivinar lo que un autor en particular podría decir con "variación compartida". Podríamos esperar circunscribir las posibilidades considerando qué propiedades debería tener este concepto (intuitivamente). Sabemos que "las variaciones agregan": la varianza de una sumaX+ε es la suma de las variaciones de X y ε cuando X y εtener cero covarianza Es natural definir la "varianza compartida" deX con la suma como la fracción de la varianza de la suma representada por la varianza de X. Esto es suficiente para implicar las variaciones compartidas de cualquiera de las dos variables aleatorias.X y Y debe ser el cuadrado de su coeficiente de correlación.

Este resultado da sentido a la interpretación de un coeficiente de correlación al cuadrado como una "varianza compartida": en un sentido adecuado, realmente es una fracción de una varianza total que puede asignarse a una variable en la suma.

Los detalles siguen.

Principios y sus implicaciones

Por supuesto si Y=X, su "varianza compartida" (llamémosla "SV" de ahora en adelante) debería ser del 100%. Pero que siY y Xson versiones escaladas o desplazadas una de otra? Por ejemplo, ¿y siY representa la temperatura de una ciudad en grados F y Xrepresenta la temperatura en grados C? Me gustaría sugerir que en tales casosX y Y aún debe tener un 100% de SV, para que este concepto siga siendo significativo independientemente de cómo X y Y podría medirse:

(1)SV(α+βX,γ+δY)=SV(X,Y)

para cualquier número α,γ y números distintos de cero β,δ.

Otro principio podría ser que cuando ε es una variable aleatoria independiente de X, entonces la varianza de X+ε puede descomponerse únicamente en dos partes no negativas,

Var(X+ε)=Var(X)+Var(ε),

sugiriendo que intentemos definir SV en este caso especial como

(2)SV(X,X+ε)=Var(X)Var(X)+Var(ϵ).

Dado que todos estos criterios son solo de segundo orden, solo involucran el primer y segundo momento de las variables en forma de expectativas y variaciones, relajemos el requisito de que X y εser independiente y solo exigir que no estén correlacionados . Esto hará que el análisis sea mucho más general de lo que podría ser.

Los resultados

Estos principios, si los acepta, conducen a un concepto único, familiar e interpretable. El truco será reducir el caso general al caso especial de una suma, donde podemos aplicar la definición(2).

Dado (X,Y), simplemente intentamos descomponer Y en una versión escalada y cambiada de X más una variable que no está correlacionada con X: es decir, busquemos constantes (si es posible) α y β y una variable aleatoria ϵ para cual

(3)Y=α+βX+ε

con Cov(X,ε)=0 0. Para que la descomposición tenga alguna posibilidad de ser única, debemos exigir

mi[ε]=0 0

para que una vez β es encontrado, α Esta determinado por

α=mi[Y]-βmi[X].

Esto se parece mucho a la regresión lineal y de hecho lo es. El primer principio dice que podemos reescalarX y Y tener una varianza unitaria (suponiendo que cada una tenga una varianza distinta de cero) y que cuando se hace, los resultados de regresión estándar afirman el valor de β en (3) es la correlación de X y Y:

(4)β=ρ(X,Y).

Además, tomando las variaciones de (1) da

1=Var(Y)=β2Var(X)+Var(ε)=β2+Var(ε),

Insinuando

(5)Var(ε)=1-β2=1-ρ2.

Por consiguiente

SV(X,Y)=SV(X,α+βX+ε)(Modelo 3)=SV(βX,βX+ε)(Propiedad 1)=Var(βX)Var(βX)+Var(ϵ)(Definición 2)=β2β2+(1-β2)=β2(Resultado 5)=ρ2(Relación 4).

Tenga en cuenta que debido al coeficiente de regresión en Y (cuando está estandarizado a la varianza de la unidad) es ρ(Y,X)=ρ(X,Y), la "varianza compartida" en sí es simétrica, lo que justifica una terminología que sugiere el orden de X y Y No importa:

SV(X,Y)=ρ(X,Y)2=ρ(Y,X)2=SV(Y,X).
whuber
fuente