¿Regresión múltiple o coeficiente de correlación parcial? Y las relaciones entre los dos

35

Ni siquiera sé si esta pregunta tiene sentido, pero ¿cuál es la diferencia entre la regresión múltiple y la correlación parcial (aparte de las diferencias obvias entre correlación y regresión, que no es a lo que apunto)?

Quiero descubrir lo siguiente:
tengo dos variables independientes ( , ) y una variable dependiente ( ). Ahora individualmente, las variables independientes no están correlacionadas con la variable dependiente. Pero para un determinado disminuye cuando disminuye. Entonces, ¿lo analizo mediante regresión múltiple o correlación parcial ?x1x2yx1 yx2

editar para mejorar mi pregunta: estoy tratando de entender la diferencia entre la regresión múltiple y la correlación parcial. Entonces, cuando disminuye para un dado cuando disminuye, ¿se debe al efecto combinado de y en (regresión múltiple) o se debe a la eliminación del efecto de (correlación parcial)?yx1x2x1x2yx1

usuario34927
fuente
3
¿Cuál es la pregunta sustantiva que estás tratando de responder?
gung - Restablece a Monica
Ver también preguntas muy similares stats.stackexchange.com/q/50156/3277 .
ttnphns

Respuestas:

32

El coeficiente de regresión lineal múltiple y la correlación parcial están directamente vinculados y tienen el mismo significado (valor p). La r parcial es solo otra forma de estandarizar el coeficiente, junto con el coeficiente beta (coeficiente de regresión estandarizado) . Entonces, si la variable dependiente es y las independientes son y entonces y x 1 x 21yx1x2

Beta:βx1=ryx1ryx2rx1x21rx1x22

Partial r:ryx1.x2=ryx1ryx2rx1x2(1ryx22)(1rx1x22)

Verá que los numeradores son los mismos, lo que indica que ambas fórmulas miden el mismo efecto único de . Trataré de explicar cómo las dos fórmulas son estructuralmente idénticas y cómo no lo son.x1

Suponga que ha estandarizado z (media 0, varianza 1) las tres variables. El numerador es entonces igual a la covarianza entre dos tipos de residuos : los (a) residuos que quedan en la predicción de por [ambas variables estándar] y los (b) residuos que quedan en la predicción de por [ambas variables estándar]. Además, la varianza de los residuos (a) es ; la varianza de los residuos (b) es .x 2 x 1 x 2 1 - r 2 y x 2 1 - r 2 x 1 x 2yx2x1x21ryx221rx1x22

La fórmula para la correlación parcial aparece claramente la fórmula de Pearson simple , como se calcula en este caso entre los residuos (a) y los residuos (b): Pearson , sabemos, es la covarianza dividida por el denominador que es la media geométrica de Dos variaciones diferentes.rrr

El coeficiente estandarizado beta es estructuralmente como Pearson , solo que el denominador es la media geométrica de una varianza con el propio yo . No se contó la varianza de los residuos (a); fue reemplazado por un segundo conteo de la varianza de los residuos (b). Beta es, por lo tanto, la covarianza de los dos residuos en relación con la varianza de uno de ellos (específicamente, el que pertenece al predictor de interés, ). Si bien la correlación parcial, como ya se notó, es esa misma covarianza con respecto a su varianza híbrida . Ambos tipos de coeficientes son formas de estandarizar el efecto de en el entorno de otros predictores.x 1 x 1rx1x1

Algunas consecuencias numéricas de la diferencia. Si R-cuadrado de regresión múltiple de por y resulta ser 1, ambas correlaciones parciales de los predictores con el dependiente también serán 1 valor absoluto (pero las betas generalmente no serán 1). De hecho, como se dijo antes, es la correlación entre los residuos de y los residuos de . Si lo que no es dentro de es exactamente lo que no es dentro de entonces no hay nada dentro de que no sea ni nix 1 x 2 r y x 1 . x 2 x 2 y x 2 x 1 y x 1 x 2 x 2 y 1 - r 2 y x 2 x 1 1 - r 2 x 1 x 2 r y x 1 . x 2 β x 1 y yyx1x2ryx1.x2y <- x2x1 <- x2x2y x2x1yx1x2 : ajuste completo. Cualquiera sea la cantidad de la parte no explicada (por ) que queda en (el ), si es capturada relativamente alto por la parte independiente de (por el ), el será alto. , por otro lado, solo será alto siempre que la parte inexplicable capturada de sea ​​en sí misma una parte sustancial de .x2y1ryx22x11rx1x22ryx1.x2βx1yy


De las fórmulas anteriores, se obtiene (y se extiende desde la regresión de 2 predictores a una regresión con un número arbitrario de predictores ) la fórmula de conversión entre beta y r parcial correspondiente:x1,x2,x3,...

ryx1.X=βx1var(ex1X)var(eyX),

donde representa la colección de todos los predictores excepto el actual ( ); son los residuos de la regresión de por , y son los residuos de la regresión de por , las variables en ambas regresiones ingresan a ellos estandarizados .Xx1eyXyXex1Xx1X

Nota: si es necesario para calcular las correlaciones parciales de con cada predictor por lo general no vamos a utilizar esta fórmula requiere hacer dos regresiones adicionales. Más bien, las operaciones de barrido (a menudo utilizados en etapas y todos los subconjuntos de regresión algoritmos) se hará o correlación anti-imagen matriz serán computados.yx


1 βx1=bx1σx1σy es la relación entre la prima y la normalización de coeficientes en regresión con intercepto.bβ

ttnphns
fuente
Gracias. Pero, ¿cómo decidir cuál de ellos para ir con, por ejemplo, para la finalidad descrita en mi pregunta?
user34927
2
Obviamente, usted es libre de elegir: los numeradores son los mismos, por lo que transmiten la misma información. En cuanto a su pregunta (no totalmente aclarada), que parece ser sobre temas de "Regr puede ser 0 cuando coef.. R no es 0"; "puede Regr. coef. no ser 0 cuando r es 0". Hay un bajo número de preguntas acerca de que en el sitio. Sólo por ejemplo, es posible leer stats.stackexchange.com/q/14234/3277 ; stats.stackexchange.com/q/44279/3277 .
ttnphns
Traté de aclarar mi pregunta ..
user34927
Fijar X1 ("x1 dado") = eliminar (controlar) el efecto de X1. No existe el "efecto combinado" en la regresión múltiple (a menos que agregue la interacción X1 * X2). Los efectos en la regresión múltiple son competitivos. Los efectos de regresión lineal son en realidad correlaciones parciales.
ttnphns
1
Espera un poco, @ user34927. to prove that the DV (Y) is significantly correlated with one of two IVs (X1) if the effect of the other IV (X2) is removedEl efecto eliminado de dónde ? Si "elimina" X2 de Y y X1, entonces el corr. entre Y y X1 es la correlación parcial . Si "elimina" X2 de X1 solo entonces el corr. entre Y y X1 se llama la parte (o semi-parcial) de correlación. ¿De verdad preguntando por ella ?
ttnphns
0

Acabo de toparme con esta banda por casualidad. En la respuesta original, en la fórmula para el factor βx1 falta, es decir β x 1 = r y x 1 - r y x 2 r x 1 x 2SSY/SSX1 dondeSSY=i(yi-ˉy)2ySSX1=i(x1i- ˉ x 1)2.

βx1=ryx1ryx2 rx1x21rx1x22×SSYSSX1,
SSY=i(yiy¯)2SSX1=i(x1ix¯1)2
Brani
fuente
Estás dando la fórmula de . Mi respuesta fue sobre β . bβ
ttnphns