Importancia del coeficiente de correlación promedio

11

Descargo de responsabilidad: si considera que esta pregunta es demasiado similar a otra, me alegra que se fusione. Sin embargo, no encontré una respuesta satisfactoria en ningún otro lugar (y todavía no tengo la "reputación" de comentar o votar), así que pensé que sería mejor hacer una nueva pregunta yo mismo.

Mi pregunta es esta Para cada uno de los 12 sujetos humanos, he calculado un coeficiente de correlación (rho de Spearman) entre 6 niveles de una variable independiente X y las observaciones correspondientes de una variable dependiente Y. (Nota: los niveles de X no son iguales entre los sujetos). La hipótesis nula es que en la población general, esta correlación es igual a cero. He probado esta hipótesis de dos maneras:

  1. Usando una prueba t de una muestra sobre los coeficientes de correlación obtenidos de mis 12 sujetos.

  2. Al centrar mis niveles de X y las observaciones de Y de manera que para cada participante, media (X) = 0 y media (Y) = 0, y luego calcular una correlación sobre los datos agregados (72 niveles de X y 72 observaciones de Y) .

Ahora, al leer sobre trabajar con coeficientes de correlación (aquí y en otros lugares), he comenzado a dudar si el primer enfoque es válido. Particularmente, he visto aparecer la siguiente ecuación en varios lugares, presentada (aparentemente) como una prueba t para coeficientes de corelación promedio:

t=rSEr=n21r2

donde sería el coeficiente de correlación promedio (y supongamos que lo hemos obtenido usando la transformación de Fisher en los coeficientes por sujeto primero) el número de observaciones. Intuitivamente, esto me parece incorrecto ya que no incluye ninguna medida de la variabilidad entre sujetos. En otras palabras, si tuviera 3 coeficientes de correlación, obtendría el mismo estadístico t si fueran [0.1, 0.5, 0.9] o [0.45 0.5 0.55] o cualquier rango de valores con la misma media ( )n n = 3rnn=3

Sospecho, por lo tanto, que la ecuación anterior no se aplica de hecho cuando se prueba la importancia de un promedio de coeficientes de correlación, sino cuando se prueba la importancia de un solo coeficiente de correlación basado en observaciones de 2 variables.n

¿Alguien podría confirmar esta intuición o explicar por qué está mal? Además, si esta fórmula no se aplica a mi caso, ¿alguien sabe cuál es el enfoque correcto? ¿O tal vez mi propia prueba número 2 ya es válida? Cualquier ayuda es muy apreciada (incluidos los punteros a respuestas anteriores que podría haber perdido o malinterpretado)

Ruben van Bergen
fuente
2
La de Pearson es insensible a las transformaciones de centrado y escalado, por lo que creo que el centrado es irrelevante para su pregunta. Por ejemplo, cor ( ) = cor ( ) = cor ( ) = cor ( ). X , Y X , Y - ˉ Y X , Y + 1000 X , Y × 1000rX,YX,YY¯X,Y+1000X,Y×1000
Alexis
Estoy de acuerdo contigo. Es por eso que interpreté centrar como "centrar cada variable por separado antes de juntarlas".
Federico Tedeschi
1
@FedericoTedeschi ¿No es "centrar cada variable por separado antes de juntarlas" qué significa ? YY¯
Alexis
@Alexis Te he respondido al final de mi respuesta (hubiera sido demasiado tiempo escribirlo en un comentario, y también habría tenido que corregirlo varias veces debido al problema WYSINWYG).
Federico Tedeschi

Respuestas:

2

Un mejor enfoque para analizar estos datos es utilizar un (también conocido como modelo de efectos mixtos, modelo jerárquico) con subjectun efecto aleatorio (intercepción aleatoria o intercepción aleatoria + pendiente). Para resumir una respuesta diferente mía:

Esto es esencialmente una regresión que modela una relación general única mientras permite que esa relación difiera entre los grupos (los sujetos humanos). Este enfoque se beneficia de la agrupación parcial y utiliza sus datos de manera más eficiente.

mkt - Restablecer a Monica
fuente
-1

Supongo que las variables ( 's y ' s) son las mismas para todas las personas (en realidad no estoy seguro de entender lo que quieres decir al decir que los niveles no son iguales en todas las materias: espero que lo seas) refiriéndose a la independencia entre los rangos de las variables, no sobre qué variables se miden para cada individuo). Sí, la fórmula que mostró se aplica al coeficiente de correlación entre dos variables.126 X6 Y

En su punto 2, habla de normalización: creo que esto tendría sentido si lo hiciera para cada una de las variables separado. Sin embargo, aun así, el problema con este enfoque es que no controla la dependencia dentro del individuo.62

Creo que su enfoque 1 tampoco es válido, porque sería una prueba entre variables con distribución con solo grados de libertad, por lo que no creo que pueda aplicar el Teorema del límite central en este caso.6t10

Tal vez, con números más grandes, podría usar un enfoque de efecto aleatorio, que permita una pendiente aleatoria y al mismo tiempo probar tanto un coeficiente promedio nulo (de en ) como la inexistencia de un coeficiente aleatorio. Sin embargo, creo que 6 variables y 12 observaciones no son suficientes para hacerlo.XiYi

Le sugiero que lo vea como una prueba de 6 valores (que se convierten en 12 si también considera valores por debajo de la diagonal) de la matriz de correlación entre las variables (tanto la como la ), es decir, las que están en la diagonal de la segunda (y equivalente del 3er) cuadrante. Por lo tanto, haría una prueba de razón de probabilidad entre el modelo restringido y el no restringido.12XY

@ Alexis Entiendo que centrar , , reemplazándolos con tendría sentido (creo que también tendría sentido dividirlos por sus 's). De esta manera, las variables e (creadas considerando como si fueran ocurrencias de una variable única, y lo mismo para ) tendrían todas una media de . Por el contrario, si construimos dos variables primero (creado considerandoX1,,X6Y1,,Y6X1=X1X1¯,,X6=X6X6¯,Y1=Y1Y1¯,,Y6=Y6Y6¯SEXYXi,1i6Yi0X,YXi,1i6como si fueran ocurrencias de una variable única, y lo mismo para ), entonces, por supuesto, restar la media (y también dividir por el SE de e ) no cambiaría las cosas.YiXY

EDITAR 01/01/18

Let indican la variable y ( ) del individuo. Entonces, supongamos que tenemos:ij1j12

X1j=Y1j=10,j ;

X2j=Y2j=8,j ;

X3j=Y3j=6,j ;

X4j=Y4j=4,j ;

X5j=Y5j=2,j ;

X6j=Y6j=j,j .

La correlación en este caso debe ser .0.5428

Si cada variable, dado que, para , tanto como no tienen variación, tenemos: . En cuanto a , obtenemos los valores (es decir, para las 's: , y exactamente lo contrario para las 's). Como y , obtenemos: , implicando una correlación de .1i5XiYiXij=Yij=0i=6X6j=j6.5,Yj6=(13j)6.5=6.5jX5.5,4.5,3.5,2.5,1.5,0.5,0.5,1.5,2.5,3.5,4.5,5.5Y0=0j6.5=(6.5j)Xij=Yiji,jX=Y1

Federico Tedeschi
fuente
Estoy de acuerdo con usted si seguimos el segundo procedimiento. Por eso creo que Ruben van Bergen se refería a lo que describí en el primer procedimiento. En este caso, tenemos que: , pero no es generalmente verdad. Estoy editando mi publicación para mostrar un contraejemplo. cor(Xi,Yi)=cor(Xi,Yi),icor(X,Y)=cor(X,Y)
Federico Tedeschi
Los valores que dan una correlación de son: ; . No importa si la correlación es realmente , ya que es claramente diferente de . 0.5428X=10,10,10,10,10,10,10,10,10,10,10,10,8,8,8,8,8,8,8,8,8,8,8,8,6,6,6,6,6,6,6,6,6,6,6,6,4,4,4,4,4,4,4,4,4,4,4,4,2,2,2,2,2,2,2,2,2,2,2,2,1,2,3,4,5,6,7,8,9,10,11,12Y=10,10,10,10,10,10,10,10,10,10,10,8,8,8,8,8,8,8,8,8,8,8,8,6,6,6,6,6,6,6,6,6,6,6,6,4,4,4,4,4,4,4,4,4,4,4,4,2,2,2,2,2,2,2,2,2,2,2,2,12,11,10,9,8,7,6,5,4,3,2,10.54281
Federico Tedeschi
La correlación entre y es . El hecho de que diga que e conduce a es cierto, pero esto solo significa que , eso es algo que ya he escrito. X=0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,5.5,4.5,3.5,2.5,1.5,0.5,0.5,1.5,2.5,3.5,4.5,5.5X=0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,5.5,4.5,3.5,2.5,1.5,0.5,0.5,1.5,2.5,3.5,4.5,5.51X=1,,12Y=12,,1cor(X,Y)=cor(X,Y)=1cor(Xi,Yi)=cor(Xi,Yi)
Federico Tedeschi
Por supuesto, : esto es una consecuencia de la invariancia de la correlación con las transformaciones lineales. Esto es algo que ya acordé en mi primer comentario: "Estoy de acuerdo con usted. Por eso interpreté centrar como" centrar cada variable por separado antes de juntarlas "." - Federico Tedeschi 27 de diciembre de 17 a 10:27cor(X;Y)=cor(XX¯;YY¯)
Federico Tedeschi
Quizás, no entiendo qué significa "centrar cada variable por separado antes de unirlas". Para mí, significa está "centrando cada uno variable por separado antes de ponerlos juntos ". ¿Me pueden ayudar a entender nuestra aparente comprensión diferente? X 1 - ˉ X , X 2 - ˉ X , , X n - ˉ XXX¯X1X¯,X2X¯,,XnX¯
Alexis