A menudo se afirma que el cuadrado de la correlación de la muestra es equivalente al coeficiente de determinación para la regresión lineal simple. No he podido demostrarlo yo mismo y agradecería una prueba completa de este hecho.
regression
correlation
edwardsm88
fuente
fuente
Respuestas:
Parece haber alguna variación en la notación: en una regresión lineal simple, generalmente he visto la frase "coeficiente de correlación de muestra" con el símbolo como referencia a la correlación entre los valores observados e . Esta es la notación que he adoptado para esta respuesta. También he visto la misma frase y símbolo utilizados para referirnos a la correlación entre observado ajustado ; en mi respuesta me he referido a esto como el "coeficiente de correlación múltiple" y se utiliza el símbolo . Esta respuesta aborda por qué el coeficiente de determinación es tanto el cuadrado de como también el cuadrado dex y y y R r Rr X y y y^ R r R , por lo que no debería importar qué uso se pretendía.
El resultado de sigue en una línea de álgebra una vez que se establecen algunos hechos directos sobre la correlación y el significado de , por lo que puede preferir saltar a la ecuación encuadrada. Supongo que no tenemos que demostrar las propiedades básicas de covarianza y varianza, en particular: Rr2 R
Tenga en cuenta que este último puede derivarse del primero, una vez que sepamos que la covarianza es simétrica y que . De aquí derivamos otro hecho básico, sobre la correlación. Para , y siempre que e tengan variaciones distintas de cero,a ≠ 0 X YVar ( X) = Cov ( X, X) a ≠ 0 X Y
Aquí es la función signum o sign : su valor es si y si . También es cierto que si , pero ese caso no nos concierne: sería una constante, entonces en el denominador y no podemos calcular la correlación. Los argumentos de simetría nos permiten generalizar este resultado, para :sgn ( a ) = + 1 a > 0 sgn ( a ) = - 1 a < 0 sgn ( a ) = 0 a = 0 a X + b Var ( a X + b ) = 0 a ,sgn ( a ) sgn ( a ) = + 1 a > 0 sgn(a)=−1 a<0 sgn(a)=0 a=0 aX+b Var(aX+b)=0 a,c≠0
No necesitaremos esta fórmula más general para responder la pregunta actual, pero la incluyo para enfatizar la geometría de la situación: simplemente establece que la correlación no cambia cuando una variable se escala o se traduce, pero se invierte en signo cuando una variable es reflejado
Necesitamos un hecho más: para un modelo lineal que incluye un término constante, el coeficiente de determinación es el cuadrado del coeficiente de correlación múltiple , que es la correlación entre las respuestas observadas y los valores equipada del modelo . Esto se aplica tanto para múltiples y regresiones simples, pero vamos a restringir nuestra atención a la simple modelo lineal . El resultado se deduce de la observación de que es una versión escalada, posiblemente reflejada y traducida de : R Y Y Y = β 0 + β 1 X Y XR2 R Y Y^ Y^=β^0+β^1X Y^ X
Entonces donde el signo coincide con el signo de la pendiente estimada, lo que garantiza que no sea negativo. Claramente .R R 2 = r 2R=±r R R2=r2
El argumento anterior se simplificó al no tener que considerar sumas de cuadrados. Para lograr esto, salté los detalles de la relación entre , que normalmente pensamos en términos de sumas de cuadrados, y , para lo cual pensamos en correlaciones de respuestas ajustadas y observadas. Los símbolos hacen que la relación parezca tautológica, pero este no es el caso, ¡y la relación se rompe si no hay un término de intercepción en el modelo! Daré un breve bosquejo de un argumento geométrico sobre la relación entre y tomado de una pregunta diferente : el diagrama se dibuja en un espacio sujeto - dimensional R R 2 = ( R ) 2 R R 2 n X 1 nR2 R R2=(R)2 R R2 norte , por lo que cada eje (no mostrado) representa una sola unidad de observación, y las variables se muestran como vectores. Las columnas de la matriz de diseño son el vector (para el término constante) y el vector de observaciones de la variable explicativa, por lo que el espacio de la columna es un plano bidimensional.X 1norte
La ajustada es la proyección ortogonal de la observada en el espacio de la columna de . Esto significa que el vector de residuos es perpendicular al plano, y por lo tanto a . El producto punto es . Como los residuales suman cero e , entonces para que ambas se y observen las respuestas tener media . Las líneas discontinuas en el diagrama, y YXe=y - y 1n0=1n⋅e=Σ n i = 1 eiYi= ^ Y i +eiΣ n i = 1 Yi=Σ n i = 1 ^ Y i ˉ Y Y- ˉ Y 1n YY^ Y X e = y - y^ 1norte 0 = 1norte⋅ e = ∑nortei = 1miyo Yyo= Yyo^+ eyo ∑nortei = 1Yyo= ∑nortei = 1Yyo^ Y¯ Y - Y¯1norte θ RY^- Y¯1norte , son por lo tanto los centrados vectores para las respuestas observadas y empotrados, y el coseno del ángulo entre ellos es su correlación .θ R
El triángulo que forman estos vectores con el vector de residuos está en ángulo recto ya que encuentra en el plano, pero es ortogonal a él. Aplicando Pitágoras:eY^- Y¯1norte mi
Esto es solo la descomposición de las sumas de cuadrados, . La fórmula convencional para el coeficiente de determinación es que en este triángulo es así que es de hecho el cuadrado de . Es posible que esté más familiarizado con la fórmula , que da inmediatamente , pero tenga en cuenta que es más general y (como acabamos de ver) se reducirá a 1 - S S residualSStotal= SSresidual+ SSregresión 1-sen2θ=cos2θRR2=SS regresión1 - SSresidualSStotal 1 - pecado2θ = cos2θ R cos total 2θ1-SS residualR2= SSregresiónSStotal cos2θ SS regresión1 - SSresidualSStotal SSregresiónSStotal si se incluye un término constante en el modelo .
fuente
El se define como El coeficiente de correlación de la muestra al cuadrado: es equivalente, ya que se verifica fácilmente usando: (ver Verbeek , §2.4)R 2 = V ( Y i )R2 r2(yi, y i)= ( Σ N i = 1 ( y i - ˉ y ) ( y i - ˉ y ) ) 2
fuente