¿Cómo comparar la fuerza de dos correlaciones de Pearson?

10

Un revisor me ha preguntado si las correlaciones de Pearson (valores r) presentadas en una tabla pueden compararse entre sí para poder afirmar que uno es "más fuerte" que otro (aparte de simplemente observar los valores r reales) .

¿Cómo haría usted para esto? He encontrado este metodo

http://vassarstats.net/rdiff.html

pero no estoy seguro si esto aplica.

pecorino
fuente
2
¿Se calculan sus dos correlaciones a partir de la misma muestra de observaciones?
Dimitriy V. Masterov
Algo así como un intervalo de confianza para la diferencia podría funcionar. Puede usar la simulación bajo un supuesto de distribución o aproximaciones normales asintóticas. En muestras grandes, puede usar bootstrapping.
Glen_b -Reinstale a Monica
AFAIK deriva el IC de los puntajes z y transforma z de vuelta para un IC en rs funciona. Incluso para un CI de arranque, podría ser apropiado transformarlos primero.
jona

Respuestas:

22

(Supongo que está hablando de los r obtenidos de una muestra).

La prueba en ese sitio web se aplica en el sentido de que trata a r como cualquier parámetro cuyo valor puede diferir entre dos poblaciones. ¿En qué se diferencia r de cualquier otra medida, como la media, en la que tiene mucha confianza para comparar, utilizando la prueba t ? Bueno, es diferente en el sentido de que está entre -1,1, no tiene la distribución adecuada, por lo que debe transformar Fisher antes de hacer la inferencia (y luego volver a transformarla si desea, por ejemplo, obtener un CI). Los puntajes z resultantes de la prueba tienen la forma adecuada para hacer inferencia. Eso es lo que está haciendo la prueba a la que te estás vinculando.

Entonces, a lo que se vincula es a un procedimiento para inferir lo que podría suceder si pudiera obtener la r para la totalidad de la (s) población (es) de la que está tomando muestras: si la r para un grupo fuera más alta que para el otro, o lo haría son exactamente lo mismo? Llamemos a esto hipótesis posterior H . Si la prueba devuelve un valor p bajo, implica que, según su muestra, debe tener poca confianza en la hipótesis de que el valor verdadero para la diferencia entre las dos r sea ​​exactamente 0 (ya que tales datos ocurrirían raramente si la diferencia en r fue exactamente 0). Si no, no tiene los datos para rechazar, con confianza, esta hipótesis de exactamente igual0r , ya sea porque es cierto y / o porque su muestra es insuficiente. Tenga en cuenta que podría haber hecho la misma historia sobre la diferencia de medias (usando la prueba t ), o cualquier otra medida.

Una pregunta completamente diferente es si la diferencia entre los dos sería significativa . Lamentablemente, no hay una respuesta directa a esto, y ninguna prueba estadística puede darle la respuesta. Tal vez el verdadero valor (el valor de la población, no el que usted observa) de r es .5 en uno y .47 en el otro grupo. En este caso, la hipótesis estadística de su equivalencia (nuestra H ) sería falsa. ¿Pero es esta una diferencia significativa ? Depende: ¿hay algo en el orden del 3% de varianza explicada más significativo o sin sentido? Cohen ha dado pautas aproximadas para interpretar r (y presumiblemente, las diferencias entre r0's), pero solo lo hizo bajo el consejo de que estos no son más que un punto de partida. Y ni siquiera sabe la diferencia exacta, incluso si hace alguna inferencia, por ejemplo, calculando el IC para las diferencias entre las dos correlaciones. Lo más probable es que un rango de posibles diferencias sea compatible con sus datos.

Una apuesta relativamente segura sería calcular los intervalos de confianza para sus r y posiblemente el IC por su diferencia, y dejar que el lector decida.

jona
fuente
44
No sé si eres profesor, pero deberías serlo. Esto es fácil de entender incluso para alguien con conocimientos básicos de estadística gracias a su gran explicación.
ataque aéreo