Digamos que tengo dos matrices unidimensionales, y . Cada uno contiene 100 puntos de datos. son los datos reales, y es la predicción del modelo. En este caso, el valor sería: Mientras tanto, esto sería igual al valor cuadrado del coeficiente de correlación, Ahora si cambio los dos: son los datos reales, y es la predicción del modelo. De la ecuación , porque al coeficiente de correlación no le importa cuál es primero, ela 2 a 1 a 2 R 2 R 2 = 1 - S S r e sR 2 = ( Coeficiente de correlación ) 2
Mi pregunta es: ¿Cómo pueden contradecirse?
Editar :
Me preguntaba eso, será la relación en la ecuación. (2) sigue en pie, si no es una regresión lineal simple, es decir, la relación entre IV y DV no es lineal (podría ser exponencial / log)?
¿Se mantendrá esta relación si la suma de los errores de predicción no es igual a cero?
fuente
Respuestas:
Esto es cierto que cambiará ... pero olvidó el hecho de que la suma de los cuadrados de la regresión también cambiará. Entonces, consideremos el modelo de regresión simple y denotemos el coeficiente de correlación como r 2 x y = S 2 x ySStot , donde utilicé el subíndicexypara enfatizar el hecho de quexes la variable independiente eyes la variable dependiente. Obviamente,r2 x y no cambia si intercambiasxcony. Podemos mostrar fácilmente queSSRxy=Syy(R2 x y ), dondeSSRxyes la suma de regresión de cuadrados y r2xy=S2xySxxSyy xy x y r2xy x y SSRxy=Syy(R2xy) SSRxy es la suma total de cuadrados donde x es independiente e y es variable dependiente. Por lo tanto: R 2 x y = S S R x ySyy x y dondeSSExyes la suma residual correspondiente de cuadrados dondexes independiente eyes variable dependiente. Tenga en cuenta que en este caso, tenemosSSExy=b2 x y Sxxconb=Sxy
fuente
Una manera de interpretar el coeficiente de determinación es mirar como el coeficiente de correlación al cuadrado de Pearson entre los valores observados y i y los valores ajustados de Y i .R2 yyo y^yo
La prueba completa de cómo derivar el coeficiente de determinación R2 del Coeficiente de correlación de Pearson cuadrado entre los valores observados yi y los valores ajustados y ^ i se puede encontrar en el siguiente enlace:
http://economictheoryblog.wordpress.com/2014/11/05/proof/
En mi opinión, debería ser bastante fácil de entender, solo siga los pasos individuales. Supongo que mirarlo es esencial para entender cómo funciona realmente la relación entre las dos figuras clave.
fuente
En caso de regresión lineal simple con un solo predictor . Pero en la regresión lineal múltiple con más de un predictor, el concepto de correlación entre los predictores y la respuesta no se extiende automáticamente. La fórmula obtiene:R2=r2=Corr(x,y)2
El cuadrado de la correlación entre la respuesta y el modelo lineal ajustado.
fuente
@Stat ha proporcionado una respuesta detallada. En mi breve respuesta, mostraré brevemente de manera algo diferente cuál es la similitud y la diferencia entre y r 2 .r r2
fuente
fuente