Un revisor me ha preguntado si las correlaciones de Pearson (valores r) presentadas en una tabla pueden compararse entre sí para poder afirmar que uno es "más fuerte" que otro (aparte de simplemente observar los valores r reales) .
¿Cómo haría usted para esto? He encontrado este metodo
http://vassarstats.net/rdiff.html
pero no estoy seguro si esto aplica.
correlation
pearson-r
method-comparison
pecorino
fuente
fuente
Respuestas:
(Supongo que está hablando de los r obtenidos de una muestra).
La prueba en ese sitio web se aplica en el sentido de que trata a r como cualquier parámetro cuyo valor puede diferir entre dos poblaciones. ¿En qué se diferencia r de cualquier otra medida, como la media, en la que tiene mucha confianza para comparar, utilizando la prueba t ? Bueno, es diferente en el sentido de que está entre -1,1, no tiene la distribución adecuada, por lo que debe transformar Fisher antes de hacer la inferencia (y luego volver a transformarla si desea, por ejemplo, obtener un CI). Los puntajes z resultantes de la prueba tienen la forma adecuada para hacer inferencia. Eso es lo que está haciendo la prueba a la que te estás vinculando.
Entonces, a lo que se vincula es a un procedimiento para inferir lo que podría suceder si pudiera obtener la r para la totalidad de la (s) población (es) de la que está tomando muestras: si la r para un grupo fuera más alta que para el otro, o lo haría son exactamente lo mismo? Llamemos a esto hipótesis posterior H . Si la prueba devuelve un valor p bajo, implica que, según su muestra, debe tener poca confianza en la hipótesis de que el valor verdadero para la diferencia entre las dos r sea exactamente 0 (ya que tales datos ocurrirían raramente si la diferencia en r fue exactamente 0). Si no, no tiene los datos para rechazar, con confianza, esta hipótesis de exactamente igual0 r , ya sea porque es cierto y / o porque su muestra es insuficiente. Tenga en cuenta que podría haber hecho la misma historia sobre la diferencia de medias (usando la prueba t ), o cualquier otra medida.
Una pregunta completamente diferente es si la diferencia entre los dos sería significativa . Lamentablemente, no hay una respuesta directa a esto, y ninguna prueba estadística puede darle la respuesta. Tal vez el verdadero valor (el valor de la población, no el que usted observa) de r es .5 en uno y .47 en el otro grupo. En este caso, la hipótesis estadística de su equivalencia (nuestra H ) sería falsa. ¿Pero es esta una diferencia significativa ? Depende: ¿hay algo en el orden del 3% de varianza explicada más significativo o sin sentido? Cohen ha dado pautas aproximadas para interpretar r (y presumiblemente, las diferencias entre r0 's), pero solo lo hizo bajo el consejo de que estos no son más que un punto de partida. Y ni siquiera sabe la diferencia exacta, incluso si hace alguna inferencia, por ejemplo, calculando el IC para las diferencias entre las dos correlaciones. Lo más probable es que un rango de posibles diferencias sea compatible con sus datos.
Una apuesta relativamente segura sería calcular los intervalos de confianza para sus r y posiblemente el IC por su diferencia, y dejar que el lector decida.
fuente