Los datos para ciertos tipos de variables tienden a ser no normales cuando se miden en poblaciones particulares (por ejemplo, niveles de depresión en una población de personas con trastorno depresivo mayor). Dado que Pearson asume la normalidad, ¿cuán robusto es el estadístico de prueba en condiciones de no normalidad?
Tengo una serie de variables para las que me gustaría tener coeficientes de correlación, pero el sesgo Z para algunas de esas variables es significativo en p <.001 (y eso es para una muestra relativamente pequeña). He intentado algunas transformaciones, pero las mejoras en las distribuciones son solo marginales en el mejor de los casos.
¿Voy a tener que seguir con los análisis no paramétricos? ¿Y no solo para las correlaciones, sino también para otros tipos de análisis?
fuente
Respuestas:
Respuesta corta: muy poco robusta. La correlación es una medida de dependencia lineal , y cuando una variable no se puede escribir como una función lineal de la otra (y todavía tiene la distribución marginal dada), no se puede tener una correlación perfecta (positiva o negativa). De hecho, los posibles valores de correlación pueden estar severamente restringidos.
El problema es que, si bien la correlación de la población siempre está entre y , el rango exacto alcanzable depende en gran medida de las distribuciones marginales. Una prueba rápida y una demostración:1−1 1
Rango alcanzable de la correlación
Si tiene la función de distribución y las funciones de distribución marginal y , existen algunos límites superiores e inferiores bastante agradables para , llamado límites de Fréchet. Estos son (Intenta demostrarlo; no es muy difícil).(X,Y) H F G H
Los límites son en sí mismos funciones de distribución. Deje que tenga una distribución uniforme. El límite superior es la función de distribución de y el límite inferior es la función de distribución de .( X , Y ) = ( F - ( U ) , G - ( U ) ) ( F - ( - U ) , G - ( 1 - U ) )U (X,Y)=(F−(U),G−(U)) (F−(−U),G−(1−U))
Ahora, usando esta variante en la fórmula para la covarianza, vemos que obtenemos la correlación máxima y mínima cuando es igual a y , respectivamente, es decir, cuando es a (positiva o negativamente, respectivamente ) función monótona de .H H + H - Y X
Ejemplos
Aquí hay algunos ejemplos (sin pruebas):
Cuando y se distribuyen normalmente, se obtiene el máximo y el mínimo cuando tiene la costumbre de distribución normal bivariada donde se escribe como una función lineal de . Es decir, obtenemos el máximo para Aquí los límites son (por supuesto) y , sin importar qué medios y variaciones tengan eY ( X , Y ) Y X Y = μ Y + σ Y X - μ XX Y (X,Y) Y X -11XY
Cuando y tienen distribuciones logarítmicas normales, el límite inferior nunca es alcanzable, ya que ello implica que podría ser escrito para algunos y positivo , y nunca puede ser negativo. Existen fórmulas (ligeramente feas) para los límites exactos, pero permítanme dar un caso especial. Cuando e tienen distribuciones lognormales estándar (lo que significa que cuando se exponen, son normales estándar), el rango alcanzable es . (En general, el límite superior también está restringido).Y Y Y = a - b X a b Y X Y [ - 1 / e , 1 ] ≈ [ - 0.37 , 1 ]X Y Y Y=a−bX a b Y X Y [−1/e,1]≈[−0.37,1]
Cuando tiene una distribución normal estándar e tiene una distribución lognormal estándar, los límites de correlación son Y ± 1X Y
Tenga en cuenta que todos los límites son para la correlación de la población . La correlación de la muestra puede extenderse fácilmente fuera de los límites, especialmente para muestras pequeñas (ejemplo rápido: tamaño de muestra de 2).
Estimando los límites de correlación
En realidad, es bastante fácil estimar los límites superior e inferior de la correlación si puede simular a partir de las distribuciones marginales. Para el último ejemplo anterior, podemos usar este código R:
Si solo tenemos datos reales y no conocemos las distribuciones marginales, aún podemos usar el método anterior. No es un problema que las variables sean dependientes siempre que los pares de observaciones sean dependientes. Pero ayuda tener muchos pares de observación.
Transformando los datos
Por supuesto, es posible transformar los datos para que estén (marginalmente) normalmente distribuidos y luego calcular la correlación en los datos transformados. El problema es de interpretabilidad. (¿Y por qué usar la distribución normal en lugar de cualquier otra distribución donde puede ser una función lineal de ?) Para los datos que son bivariados normalmente distribuidos, la correlación tiene una buena interpretación (su cuadrado es la varianza de una variable explicada por la otra ) Este no es el caso aquí.XY X
Lo que realmente está haciendo aquí es crear una nueva medida de dependencia que no dependa de las distribuciones marginales; es decir, está creando una medida de dependencia basada en cópula . Ya existen varias medidas de este tipo, siendo ρ de Spearman y τ de Kendall las más conocidas. (Si está realmente interesado en los conceptos de dependencia, no es una mala idea buscar cópulas).
En conclusión
Algunas reflexiones y consejos finales: solo mirar la correlación tiene un gran problema: hace que dejes de pensar. Mirar los diagramas de dispersión, por otro lado, a menudo te hace comenzar a pensar. Por lo tanto, mi consejo principal sería examinar los diagramas de dispersión y tratar de modelar la dependencia explícitamente.
Dicho esto, si necesita una medida simple de correlación, simplemente usaría ρ de Spearman (y el intervalo de confianza asociado y las pruebas). Su alcance no está restringido. Pero sea muy consciente de la dependencia no monótona. El artículo de Wikipedia sobre correlación tiene un par de buenas tramas que ilustran posibles problemas.
fuente
¿Cómo son las distribuciones de estas variables (más allá de estar sesgadas)? Si la única no normalidad es la asimetría, entonces una transformación de algún tipo debe ayudar. Pero si estas variables tienen muchos bultos, entonces ninguna transformación las llevará a la normalidad. Si la variable no es continua, lo mismo es cierto.
¿Qué tan robusta es la correlación con las violaciones? Echa un vistazo al Cuarteto Anscombe. Ilustra varios problemas bastante bien.
En cuanto a otros tipos de análisis, depende del análisis. Si las variables sesgadas son variables independientes en una regresión, por ejemplo, puede que no haya ningún problema en absoluto: debe observar los residuos.
fuente