Ni siquiera sé si esta pregunta tiene sentido, pero ¿cuál es la diferencia entre la regresión múltiple y la correlación parcial (aparte de las diferencias obvias entre correlación y regresión, que no es a lo que apunto)?
Quiero descubrir lo siguiente:
tengo dos variables independientes ( , ) y una variable dependiente ( ). Ahora individualmente, las variables independientes no están correlacionadas con la variable dependiente. Pero para un determinado disminuye cuando disminuye. Entonces, ¿lo analizo mediante regresión múltiple o correlación parcial ?
editar para mejorar mi pregunta: estoy tratando de entender la diferencia entre la regresión múltiple y la correlación parcial. Entonces, cuando disminuye para un dado cuando disminuye, ¿se debe al efecto combinado de y en (regresión múltiple) o se debe a la eliminación del efecto de (correlación parcial)?
Respuestas:
El coeficiente de regresión lineal múltiple y la correlación parcial están directamente vinculados y tienen el mismo significado (valor p). La r parcial es solo otra forma de estandarizar el coeficiente, junto con el coeficiente beta (coeficiente de regresión estandarizado) . Entonces, si la variable dependiente es y las independientes son y entonces y x 1 x 21 y x1 x2
Verá que los numeradores son los mismos, lo que indica que ambas fórmulas miden el mismo efecto único de . Trataré de explicar cómo las dos fórmulas son estructuralmente idénticas y cómo no lo son.x1
Suponga que ha estandarizado z (media 0, varianza 1) las tres variables. El numerador es entonces igual a la covarianza entre dos tipos de residuos : los (a) residuos que quedan en la predicción de por [ambas variables estándar] y los (b) residuos que quedan en la predicción de por [ambas variables estándar]. Además, la varianza de los residuos (a) es ; la varianza de los residuos (b) es .x 2 x 1 x 2 1 - r 2 y x 2 1 - r 2 x 1 x 2y x2 x1 x2 1−r2yx2 1−r2x1x2
La fórmula para la correlación parcial aparece claramente la fórmula de Pearson simple , como se calcula en este caso entre los residuos (a) y los residuos (b): Pearson , sabemos, es la covarianza dividida por el denominador que es la media geométrica de Dos variaciones diferentes.rr r
El coeficiente estandarizado beta es estructuralmente como Pearson , solo que el denominador es la media geométrica de una varianza con el propio yo . No se contó la varianza de los residuos (a); fue reemplazado por un segundo conteo de la varianza de los residuos (b). Beta es, por lo tanto, la covarianza de los dos residuos en relación con la varianza de uno de ellos (específicamente, el que pertenece al predictor de interés, ). Si bien la correlación parcial, como ya se notó, es esa misma covarianza con respecto a su varianza híbrida . Ambos tipos de coeficientes son formas de estandarizar el efecto de en el entorno de otros predictores.x 1 x 1r x1 x1
Algunas consecuencias numéricas de la diferencia. Si R-cuadrado de regresión múltiple de por y resulta ser 1, ambas correlaciones parciales de los predictores con el dependiente también serán 1 valor absoluto (pero las betas generalmente no serán 1). De hecho, como se dijo antes, es la correlación entre los residuos de y los residuos de . Si lo que no es dentro de es exactamente lo que no es dentro de entonces no hay nada dentro de que no sea ni nix 1 x 2 r y x 1 . x 2 x 2 y x 2 x 1 y x 1 x 2 x 2 y 1 - r 2 y x 2 x 1 1 - r 2 x 1 x 2 r y x 1 . x 2 β x 1 y yy x1 x2 ryx1.x2 x2 y x2 x1 y x1 x2 : ajuste completo. Cualquiera sea la cantidad de la parte no explicada (por ) que queda en (el ), si es capturada relativamente alto por la parte independiente de (por el ), el será alto. , por otro lado, solo será alto siempre que la parte inexplicable capturada de sea en sí misma una parte sustancial de .x2 y 1−r2yx2 x1 1−r2x1x2 ryx1.x2 βx1 y y
y <- x2
x1 <- x2
De las fórmulas anteriores, se obtiene (y se extiende desde la regresión de 2 predictores a una regresión con un número arbitrario de predictores ) la fórmula de conversión entre beta y r parcial correspondiente:x1,x2,x3,...
donde representa la colección de todos los predictores excepto el actual ( ); son los residuos de la regresión de por , y son los residuos de la regresión de por , las variables en ambas regresiones ingresan a ellos estandarizados .X x1 ey←X y X ex1←X x1 X
Nota: si es necesario para calcular las correlaciones parciales de con cada predictor por lo general no vamos a utilizar esta fórmula requiere hacer dos regresiones adicionales. Más bien, las operaciones de barrido (a menudo utilizados en etapas y todos los subconjuntos de regresión algoritmos) se hará o correlación anti-imagen matriz serán computados.y x
fuente
to prove that the DV (Y) is significantly correlated with one of two IVs (X1) if the effect of the other IV (X2) is removed
El efecto eliminado de dónde ? Si "elimina" X2 de Y y X1, entonces el corr. entre Y y X1 es la correlación parcial . Si "elimina" X2 de X1 solo entonces el corr. entre Y y X1 se llama la parte (o semi-parcial) de correlación. ¿De verdad preguntando por ella ?Acabo de toparme con esta banda por casualidad. En la respuesta original, en la fórmula para el factor √βx1 falta, es decir
β x 1 = r y x 1 - r y x 2 r x 1 x 2SSY/SSX1−−−−−−−−−−√
dondeSSY=∑i(yi-ˉy)2ySSX1=∑i(x1i- ˉ x 1)2.
fuente