¿Recibí tu respuesta correcta? - ¿Quiere probar si existe una diferencia estadísticamente significativa entre las dos condiciones?
Perhabs vegan :: adonis () es algo para ti? No sé si eso es lo que estás buscando.
Funciona en la matriz de distancias y compara distancias dentro de una condición que son más grandes que entre condiciones. Por ejemplo, en una NMDS, vería una clara separación de las dos condiciones.
Aquí hay un código de ejemplo:
df <- data.frame(cond = rep(c("A", "B"), each = 100),
v1 <- jitter(rep(c(20, 100), each = 100)),
v2 <- jitter(rep(c(0, 80), each = 100)),
v3 <- jitter(rep(c(40, 5), each = 100)),
v4 <- jitter(rep(c(42, 47), each = 100)),
v5 <- jitter(rep(c(78, 100), each = 100)),
v6 <- jitter(rep(c(10, 100), each = 100)))
# PCA
require(vegan)
pca <- rda(df[ ,-1], scale = TRUE)
ssc <- scores(pca, display = "sites")
ordiplot(pca, type = "n")
points(ssc[df$cond == "A", ], col = "red", pch = 16)
points(ssc[df$cond == "B", ], col = "blue", pch = 16)
# NMDS
nmds <- metaMDS(df[ ,-1], distance = "euclidian")
nmsc <- scores(nmds, display = "sites")
ordiplot(nmds, type = "n")
points(nmsc[df$cond == "A", ], col = "red", pch = 16)
points(nmsc[df$cond == "B", ], col = "blue", pch = 16)
# use adonis to test if there is a difference between the conditions
adonis(df[ ,-1] ~ df[ ,1], method = "euclidean")
## There is a statistically significant difference between the two conditions
Prueba de permutación
Para probar la hipótesis nula directamente, use una prueba de permutación.
Deje que la primera PC en la condición explique de varianza, y la primera PC en la condición explique de varianza. Su hipótesis es que , por lo que podemos definir como la estadística de interés, y la hipótesis es que . La hipótesis nula a rechazar es que .A a<100% B b<100% b>a c=b−a c>0 c=0
Para realizar la prueba de permutación, tome su muestras de ambas condiciones, y ellos dividido aleatoriamente en condiciones y . Como la división es aleatoria, no debería haber diferencia en la varianza explicada después de eso. Para cada permutación, puede calcular , repetir este proceso muchas (por ejemplo, ) veces y obtener la distribución de bajo la hipótesis nula de . La comparación de su valor empírico de con esta distribución producirá un valor .N=200+200 A B c 10000 c ctrue=0 c p
Bootstrapping
Para obtener el intervalo de confianza en , use bootstrapping.c
En el enfoque de bootstrapping, se selecciona al azar muestras con el reemplazo de las muestras existentes en y otro de . Calcule y repítalo muchas veces (nuevamente, digamos, ) veces. Obtendrá una distribución de arranque de los valores de , y sus intervalos de percentiles se corresponderán con los intervalos de confianza del valor empírico . Por lo tanto, puede estimar el valor observando qué parte de esta distribución se encuentra por encima de .N=200 A N=200 B c 10000 c c p 0
La prueba de permutación es una forma más directa (y probablemente menos dependiente de cualquier suposición) para probar la hipótesis nula, pero el arranque tiene un beneficio adicional de producir un intervalo de confianza en .c
fuente
Esto es solo un esbozo de idea. La proporción de varianza se define como
donde son los valores propios de la matriz de covarianza. Ahora, si usamos los valores propios de la matriz de correlación, entonces , dado que la suma de los valores propios de una matriz es igual a la traza de la matriz, y para las matrices de correlación, la traza es la suma de unos. .λi λ1+...+λ6=6
Entonces, si usamos las matrices de correlación, necesitamos probar hipótesis sobre la diferencia de dos valores propios máximos de las matrices de correlación de muestra. Es ciertamente posible encontrar en la literatura la distribución asintótica del valor propio máximo de la matriz de correlación. Entonces, el problema se reduce a algún tipo de prueba t emparejada o no emparejada.
fuente