¿Podemos comparar correlaciones entre grupos comparando pendientes de regresión?

10

En esta pregunta , preguntan cómo comparar Pearson r para dos grupos independientes (como hombres frente a mujeres). Las respuestas y comentarios sugirieron dos formas:

  1. Use la fórmula bien conocida de Fisher usando la "transformación z" de r;
  2. Utilice la comparación de pendientes (coeficientes de regresión).

Esto último podría realizarse fácilmente a través de un modelo lineal saturado: , donde X e Y son las variables correlacionadas y G es una variable ficticia (0 vs 1) que indica los dos grupos . La magnitud de d (el coeficiente del término de interacción) es exactamente la diferencia en el coeficiente b después del modelo Y = a + b X realizado en dos grupos individualmente, y su ( dY=a+bX+cG+dXGXYGdbY=a+bXdEl significado de 's) es, por lo tanto, la prueba de la diferencia de pendiente entre los grupos.

Ahora, pendiente o regresión coef. Todavía no es un coeficiente de correlación. Pero si estandarizamos e Y , por separado en dos grupos, entonces d será igual a la diferencia r en el grupo 1 menos r en el grupo 0 y, por lo tanto, su importancia será probar la diferencia entre las dos correlaciones: estamos probando pendientes pero parece [como si ...?] estamos probando correlaciones.XYd

¿Es eso lo que he escrito correcto?

En caso afirmativo, queda la pregunta de cuál es una mejor prueba de correlaciones: ¿esta descrita o la de Fisher? Porque darán resultados no idénticos. ¿Qué piensas?

Edición posterior: Agradeciendo a @Wolfgang por su respuesta, sin embargo, siento que no entiendo por qué la prueba de Fisher es más correcta que el enfoque de comparación de pendiente bajo estandarización descrito anteriormente. Entonces, más respuestas son bienvenidas. Gracias.

ttnphns
fuente

Respuestas:

10

Todo lo que has escrito es correcto. Siempre puedes probar cosas así con un ejemplo de juguete. Aquí hay un ejemplo con R:

library(MASS)

rho <- .5  ### the true correlation in both groups

S1 <- matrix(c( 1,   rho,   rho, 1), nrow=2)
S2 <- matrix(c(16, 4*rho, 4*rho, 1), nrow=2)

cov2cor(S1)
cov2cor(S2)

xy1 <- mvrnorm(1000, mu=c(0,0), Sigma=S1)
xy2 <- mvrnorm(1000, mu=c(0,0), Sigma=S2)

x <- c(xy1[,1], xy2[,1])
y <- c(xy1[,2], xy2[,2])
group <- c(rep(0, 1000), rep(1, 1000))

summary(lm(y ~ x + group + x:group))

Lo que encontrará es que la interacción es altamente significativa, a pesar de que la correlación verdadera es la misma en ambos grupos. ¿Por qué pasa eso? Debido a que los coeficientes de regresión en bruto en los dos grupos reflejan no solo la fuerza de la correlación, sino también la escala de X (e Y) en los dos grupos. Dado que esas escalas difieren, la interacción es significativa. Este es un punto importante, ya que a menudo se cree que para probar la diferencia en la correlación, solo necesita probar la interacción en el modelo anterior. Continuemos:

summary(lm(xy2[,2] ~ xy2[,1]))$coef[2] - summary(lm(xy1[,2] ~ xy1[,1]))$coef[2]

Esto le mostrará que la diferencia en los coeficientes de regresión para el modelo ajustado por separado en los dos grupos le dará exactamente el mismo valor que el término de interacción.

Sin embargo, lo que realmente nos interesa es la diferencia en las correlaciones:

cor(xy1)[1,2]
cor(xy2)[1,2]
cor(xy2)[1,2] - cor(xy1)[1,2]

Encontrará que esta diferencia es esencialmente cero. Estandaricemos X e Y dentro de los dos grupos y reajustemos el modelo completo:

x <- c(scale(xy1[,1]), scale(xy2[,1]))
y <- c(scale(xy1[,2]), scale(xy2[,2]))
summary(lm(y ~ x + x:group - 1))

Tenga en cuenta que no estoy incluyendo la intercepción o el efecto principal del grupo aquí, porque son cero por definición. Encontrará que el coeficiente para x es igual a la correlación para el grupo 1 y el coeficiente para la interacción es igual a la diferencia en las correlaciones para los dos grupos.

Ahora, para su pregunta si sería mejor usar este enfoque en lugar de usar la prueba que hace uso de la transformación de r a z de Fisher.

EDITAR

ρ1=ρ2=0ρ1=ρ20α±1

Conclusión: si desea probar una diferencia en las correlaciones, use la transformación de r a z de Fisher y pruebe la diferencia entre esos valores.

Wolfgang
fuente
¿La transformación de Fisher tiene alguna ventaja sobre la otra prueba?
mark999
Resulta que fui demasiado rápido. Mira mis ediciones. Espero que conteste tu pregunta.
Wolfgang
Entonces, @Wolfgang, usted sostiene que el enfoque de comparación de pendiente bajo estandarización es una comparación válida de r. La famosa alternativa de Fisher es en realidad una aproximación de eso. ¿Te entendí bien?
ttnphns
Mira mis ediciones. Fui demasiado rápido con mis conclusiones iniciales.
Wolfgang
@Wolfgang, más tarde agregó EDITAR su respuesta afirma que Fisher es mejor. El enfoque de comparación de pendiente bajo estandarización es inadecuado porque "los errores estándar ... cuando se estandariza ... no se tiene en cuenta esta estandarización". Explíqueme cómo deberían tener en cuenta la estandarización para que el enfoque de comparación de pendiente bajo estandarización sea tan válido como la prueba de Fisher.
ttnphns