¿Se pueden usar los valores de escala en un análisis discriminante lineal (LDA) para trazar variables explicativas en los discriminantes lineales?

11

Usando un biplot de valores obtenidos a través del análisis de componentes principales, es posible explorar las variables explicativas que componen cada componente principal. ¿Esto también es posible con el análisis discriminante lineal?

Los ejemplos provistos usan el. Los datos son "Datos del iris de Edgar Anderson" ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Aquí están los datos del iris :

  id  SLength   SWidth  PLength   PWidth species 

   1      5.1      3.5      1.4       .2 setosa 
   2      4.9      3.0      1.4       .2 setosa 
   3      4.7      3.2      1.3       .2 setosa 
   4      4.6      3.1      1.5       .2 setosa 
   5      5.0      3.6      1.4       .2 setosa 
   6      5.4      3.9      1.7       .4 setosa 
   7      4.6      3.4      1.4       .3 setosa 
   8      5.0      3.4      1.5       .2 setosa 
   9      4.4      2.9      1.4       .2 setosa 
  10      4.9      3.1      1.5       .1 setosa 
  11      5.4      3.7      1.5       .2 setosa 
  12      4.8      3.4      1.6       .2 setosa 
  13      4.8      3.0      1.4       .1 setosa 
  14      4.3      3.0      1.1       .1 setosa 
  15      5.8      4.0      1.2       .2 setosa 
  16      5.7      4.4      1.5       .4 setosa 
  17      5.4      3.9      1.3       .4 setosa 
  18      5.1      3.5      1.4       .3 setosa 
  19      5.7      3.8      1.7       .3 setosa 
  20      5.1      3.8      1.5       .3 setosa 
  21      5.4      3.4      1.7       .2 setosa 
  22      5.1      3.7      1.5       .4 setosa 
  23      4.6      3.6      1.0       .2 setosa 
  24      5.1      3.3      1.7       .5 setosa 
  25      4.8      3.4      1.9       .2 setosa 
  26      5.0      3.0      1.6       .2 setosa 
  27      5.0      3.4      1.6       .4 setosa 
  28      5.2      3.5      1.5       .2 setosa 
  29      5.2      3.4      1.4       .2 setosa 
  30      4.7      3.2      1.6       .2 setosa 
  31      4.8      3.1      1.6       .2 setosa 
  32      5.4      3.4      1.5       .4 setosa 
  33      5.2      4.1      1.5       .1 setosa 
  34      5.5      4.2      1.4       .2 setosa 
  35      4.9      3.1      1.5       .2 setosa 
  36      5.0      3.2      1.2       .2 setosa 
  37      5.5      3.5      1.3       .2 setosa 
  38      4.9      3.6      1.4       .1 setosa 
  39      4.4      3.0      1.3       .2 setosa 
  40      5.1      3.4      1.5       .2 setosa 
  41      5.0      3.5      1.3       .3 setosa 
  42      4.5      2.3      1.3       .3 setosa 
  43      4.4      3.2      1.3       .2 setosa 
  44      5.0      3.5      1.6       .6 setosa 
  45      5.1      3.8      1.9       .4 setosa 
  46      4.8      3.0      1.4       .3 setosa 
  47      5.1      3.8      1.6       .2 setosa 
  48      4.6      3.2      1.4       .2 setosa 
  49      5.3      3.7      1.5       .2 setosa 
  50      5.0      3.3      1.4       .2 setosa 
  51      7.0      3.2      4.7      1.4 versicolor 
  52      6.4      3.2      4.5      1.5 versicolor 
  53      6.9      3.1      4.9      1.5 versicolor 
  54      5.5      2.3      4.0      1.3 versicolor 
  55      6.5      2.8      4.6      1.5 versicolor 
  56      5.7      2.8      4.5      1.3 versicolor 
  57      6.3      3.3      4.7      1.6 versicolor 
  58      4.9      2.4      3.3      1.0 versicolor 
  59      6.6      2.9      4.6      1.3 versicolor 
  60      5.2      2.7      3.9      1.4 versicolor 
  61      5.0      2.0      3.5      1.0 versicolor 
  62      5.9      3.0      4.2      1.5 versicolor 
  63      6.0      2.2      4.0      1.0 versicolor 
  64      6.1      2.9      4.7      1.4 versicolor 
  65      5.6      2.9      3.6      1.3 versicolor 
  66      6.7      3.1      4.4      1.4 versicolor 
  67      5.6      3.0      4.5      1.5 versicolor 
  68      5.8      2.7      4.1      1.0 versicolor 
  69      6.2      2.2      4.5      1.5 versicolor 
  70      5.6      2.5      3.9      1.1 versicolor 
  71      5.9      3.2      4.8      1.8 versicolor 
  72      6.1      2.8      4.0      1.3 versicolor 
  73      6.3      2.5      4.9      1.5 versicolor 
  74      6.1      2.8      4.7      1.2 versicolor 
  75      6.4      2.9      4.3      1.3 versicolor 
  76      6.6      3.0      4.4      1.4 versicolor 
  77      6.8      2.8      4.8      1.4 versicolor 
  78      6.7      3.0      5.0      1.7 versicolor 
  79      6.0      2.9      4.5      1.5 versicolor 
  80      5.7      2.6      3.5      1.0 versicolor 
  81      5.5      2.4      3.8      1.1 versicolor 
  82      5.5      2.4      3.7      1.0 versicolor 
  83      5.8      2.7      3.9      1.2 versicolor 
  84      6.0      2.7      5.1      1.6 versicolor 
  85      5.4      3.0      4.5      1.5 versicolor 
  86      6.0      3.4      4.5      1.6 versicolor 
  87      6.7      3.1      4.7      1.5 versicolor 
  88      6.3      2.3      4.4      1.3 versicolor 
  89      5.6      3.0      4.1      1.3 versicolor 
  90      5.5      2.5      4.0      1.3 versicolor 
  91      5.5      2.6      4.4      1.2 versicolor 
  92      6.1      3.0      4.6      1.4 versicolor 
  93      5.8      2.6      4.0      1.2 versicolor 
  94      5.0      2.3      3.3      1.0 versicolor 
  95      5.6      2.7      4.2      1.3 versicolor 
  96      5.7      3.0      4.2      1.2 versicolor 
  97      5.7      2.9      4.2      1.3 versicolor 
  98      6.2      2.9      4.3      1.3 versicolor 
  99      5.1      2.5      3.0      1.1 versicolor 
 100      5.7      2.8      4.1      1.3 versicolor 
 101      6.3      3.3      6.0      2.5 virginica 
 102      5.8      2.7      5.1      1.9 virginica 
 103      7.1      3.0      5.9      2.1 virginica 
 104      6.3      2.9      5.6      1.8 virginica 
 105      6.5      3.0      5.8      2.2 virginica 
 106      7.6      3.0      6.6      2.1 virginica 
 107      4.9      2.5      4.5      1.7 virginica 
 108      7.3      2.9      6.3      1.8 virginica 
 109      6.7      2.5      5.8      1.8 virginica 
 110      7.2      3.6      6.1      2.5 virginica 
 111      6.5      3.2      5.1      2.0 virginica 
 112      6.4      2.7      5.3      1.9 virginica 
 113      6.8      3.0      5.5      2.1 virginica 
 114      5.7      2.5      5.0      2.0 virginica 
 115      5.8      2.8      5.1      2.4 virginica 
 116      6.4      3.2      5.3      2.3 virginica 
 117      6.5      3.0      5.5      1.8 virginica 
 118      7.7      3.8      6.7      2.2 virginica 
 119      7.7      2.6      6.9      2.3 virginica 
 120      6.0      2.2      5.0      1.5 virginica 
 121      6.9      3.2      5.7      2.3 virginica 
 122      5.6      2.8      4.9      2.0 virginica 
 123      7.7      2.8      6.7      2.0 virginica 
 124      6.3      2.7      4.9      1.8 virginica 
 125      6.7      3.3      5.7      2.1 virginica 
 126      7.2      3.2      6.0      1.8 virginica 
 127      6.2      2.8      4.8      1.8 virginica 
 128      6.1      3.0      4.9      1.8 virginica 
 129      6.4      2.8      5.6      2.1 virginica 
 130      7.2      3.0      5.8      1.6 virginica 
 131      7.4      2.8      6.1      1.9 virginica 
 132      7.9      3.8      6.4      2.0 virginica 
 133      6.4      2.8      5.6      2.2 virginica 
 134      6.3      2.8      5.1      1.5 virginica 
 135      6.1      2.6      5.6      1.4 virginica 
 136      7.7      3.0      6.1      2.3 virginica 
 137      6.3      3.4      5.6      2.4 virginica 
 138      6.4      3.1      5.5      1.8 virginica 
 139      6.0      3.0      4.8      1.8 virginica 
 140      6.9      3.1      5.4      2.1 virginica 
 141      6.7      3.1      5.6      2.4 virginica 
 142      6.9      3.1      5.1      2.3 virginica 
 143      5.8      2.7      5.1      1.9 virginica 
 144      6.8      3.2      5.9      2.3 virginica 
 145      6.7      3.3      5.7      2.5 virginica 
 146      6.7      3.0      5.2      2.3 virginica 
 147      6.3      2.5      5.0      1.9 virginica 
 148      6.5      3.0      5.2      2.0 virginica 
 149      6.2      3.4      5.4      2.3 virginica 
 150      5.9      3.0      5.1      1.8 virginica

Ejemplo de biplot PCA usando el conjunto de datos de iris en R (código a continuación):

ingrese la descripción de la imagen aquí

Esta figura indica que la longitud y el ancho del pétalo son importantes para determinar la puntuación de PC1 y para discriminar entre los grupos de especies. setosa tiene pétalos más pequeños y sépalos más anchos.

Aparentemente, se pueden sacar conclusiones similares al trazar resultados de análisis discriminantes lineales, aunque no estoy seguro de lo que presenta el diagrama LDA, de ahí la pregunta. Los ejes son los dos primeros discriminantes lineales (LD1 99% y LD2 1% de traza). Las coordenadas de los vectores rojos son "Coeficientes de discriminantes lineales" también descritos como "escala" (escala lda.fit $: una matriz que transforma las observaciones en funciones discriminantes, normalizadas de modo que dentro de los grupos la matriz de covarianza sea esférica). "escala" se calcula como diag(1/f1, , p)y f1 is sqrt(diag(var(x - group.means[g, ]))). Los datos se pueden proyectar en los discriminantes lineales (usando predict.lda) (código a continuación, como se demuestra https://stackoverflow.com/a/17240647/742447) Los datos y las variables predictoras se trazan juntas de modo que las especies se definen por un aumento en el que se pueden ver las variables predictoras (como se hace para los biplots PCA habituales y el biplot PCA anterior):

Ejemplo de biplot LDA usando el conjunto de datos de iris en R

Desde esta gráfica, el ancho del sepal, el ancho del pétalo y la longitud del pétalo contribuyen a un nivel similar al LD1. Como se esperaba, la setosa parece tener pétalos más pequeños y sépalos más anchos.

No hay una forma integrada de trazar tales biplots de LDA en R y pocas discusiones sobre esto en línea, lo que me hace desconfiar de este enfoque.

¿Este gráfico LDA (ver el código a continuación) proporciona una interpretación estadísticamente válida de los puntajes de escala de la variable predictiva?

Código para PCA:

require(grid)

  iris.pca <- prcomp(iris[,-5])
  PC <- iris.pca
  x="PC1"
  y="PC2"
  PCdata <- data.frame(obsnames=iris[,5], PC$x)

  datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
  mult <- min(
    (max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
    (max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
  )
  datapc <- transform(datapc,
                      v1 = 1.6 * mult * (get(x)),
                      v2 = 1.6 * mult * (get(y))
  )

  datapc$length <- with(datapc, sqrt(v1^2+v2^2))
  datapc <- datapc[order(-datapc$length),]

  p <- qplot(data=data.frame(iris.pca$x),
             main="PCA",
             x=PC1,
             y=PC2,
             shape=iris$Species)
  #p <- p + stat_ellipse(aes(group=iris$Species))
  p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
  p <- p + geom_text(data=datapc, 
                     aes(x=v1, y=v2,
                         label=varnames,
                         shape=NULL,
                         linetype=NULL,
                         alpha=length), 
                     size = 3, vjust=0.5,
                     hjust=0, color="red")
  p <- p + geom_segment(data=datapc, 
                        aes(x=0, y=0, xend=v1,
                            yend=v2, shape=NULL, 
                            linetype=NULL,
                            alpha=length),
                        arrow=arrow(length=unit(0.2,"cm")),
                        alpha=0.5, color="red")
  p <- p + coord_flip()


  print(p)

Código para LDA

#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
                 data=iris)

#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])

#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))

#coef(iris.lda) is equivalent to iris.lda$scaling

data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75

#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
           main="LDA",
           x=LD1,
           y=LD2,
           shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
                   aes(x=LD1*scale.para, y=LD2*scale.para,
                       label=varnames, 
                       shape=NULL, linetype=NULL,
                       alpha=length),
                   size = 3, vjust=0.5,
                   hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
                      aes(x=0, y=0,
                          xend=LD1*scale.para, yend=LD2*scale.para,
                          shape=NULL, linetype=NULL,
                          alpha=length),
                      arrow=arrow(length=unit(0.2,"cm")),
                      color="red")
p <- p + coord_flip()

print(p)

Los resultados de la LDA son los siguientes

lda(as.factor(Species) ~ ., data = iris)

Prior probabilities of groups:
    setosa versicolor  virginica 
 0.3333333  0.3333333  0.3333333 

Group means:
           Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa            5.006       3.428        1.462       0.246
versicolor        5.936       2.770        4.260       1.326
virginica         6.588       2.974        5.552       2.026

Coefficients of linear discriminants:
                    LD1         LD2
Sepal.Length  0.8293776  0.02410215
Sepal.Width   1.5344731  2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width  -2.8104603  2.83918785

Proportion of trace:
   LD1    LD2 
0.9912 0.0088
Etienne Low-Décarie
fuente
No puedo seguir su código (no soy usuario de R y prefiero ver datos reales y valores de resultados en lugar de imágenes inexplicables y código inexplicable), lo siento. ¿Qué traman sus parcelas? ¿Cuáles son las coordenadas de los vectores rojos: pesos regresivos de los latentes o de las variables? ¿Para qué trazaste también puntos de datos? ¿Qué es discriminant predictor variable scaling scores? - El término me parece poco común y extraño.
ttnphns
@ttnphns: gracias por sugerir mejoras en las preguntas que ahora se reflejan en la pregunta.
Etienne Low-Décarie
Todavía no sé qué es predictor variable scaling scores. ¿Quizás "puntajes discriminantes"? De todos modos, agregué una respuesta que podría ser de su interés.
ttnphns

Respuestas:

7

Análisis de componentes principales y salidas de análisis discriminante lineal ; datos de iris .

No dibujaré biplots porque los biplots pueden dibujarse con varias normalizaciones y, por lo tanto, pueden verse diferentes. Como no soy Rusuario, tengo dificultades para rastrear cómo produjo sus tramas, para repetirlas. En cambio, haré PCA y LDA y mostraré los resultados, de manera similar a esto (es posible que desee leer). Ambos análisis realizados en SPSS.

Componentes principales de los datos del iris :

The analysis will be based on covariances (not correlations) between the 4 variables.

Eigenvalues (component variances) and the proportion of overall variance explained
PC1   4.228241706    .924618723 
PC2    .242670748    .053066483 
PC3    .078209500    .017102610 
PC4    .023835093    .005212184 
# @Etienne's comment: 
# Eigenvalues are obtained in R by
# (princomp(iris[,-5])$sdev)^2 or (prcomp(iris[,-5])$sdev)^2.
# Proportion of variance explained is obtained in R by
# summary(princomp(iris[,-5])) or summary(prcomp(iris[,-5]))

Eigenvectors (cosines of rotation of variables into components)
              PC1           PC2           PC3           PC4
SLength   .3613865918   .6565887713  -.5820298513   .3154871929 
SWidth   -.0845225141   .7301614348   .5979108301  -.3197231037 
PLength   .8566706060  -.1733726628   .0762360758  -.4798389870 
PWidth    .3582891972  -.0754810199   .5458314320   .7536574253    
# @Etienne's comment: 
# This is obtained in R by
# prcomp(iris[,-5])$rotation or princomp(iris[,-5])$loadings

Loadings (eigenvectors normalized to respective eigenvalues;
loadings are the covariances between variables and standardized components)
              PC1           PC2           PC3           PC4
SLength    .743108002    .323446284   -.162770244    .048706863 
SWidth    -.173801015    .359689372    .167211512   -.049360829 
PLength   1.761545107   -.085406187    .021320152   -.074080509 
PWidth     .736738926   -.037183175    .152647008    .116354292    
# @Etienne's comment: 
# Loadings can be obtained in R with
# t(t(princomp(iris[,-5])$loadings) * princomp(iris[,-5])$sdev) or
# t(t(prcomp(iris[,-5])$rotation) * prcomp(iris[,-5])$sdev)

Standardized (rescaled) loadings
(loadings divided by st. deviations of the respective variables)
              PC1           PC2           PC3           PC4
SLength    .897401762     .390604412   -.196566721    .058820016
SWidth    -.398748472     .825228709    .383630296   -.113247642
PLength    .997873942    -.048380599    .012077365   -.041964868
PWidth     .966547516   -.048781602    .200261695    .152648309  

Raw component scores (Centered 4-variable data multiplied by eigenvectors)
     PC1           PC2           PC3           PC4
-2.684125626    .319397247   -.027914828    .002262437 
-2.714141687   -.177001225   -.210464272    .099026550 
-2.888990569   -.144949426    .017900256    .019968390 
-2.745342856   -.318298979    .031559374   -.075575817 
-2.728716537    .326754513    .090079241   -.061258593 
-2.280859633    .741330449    .168677658   -.024200858 
-2.820537751   -.089461385    .257892158   -.048143106 
-2.626144973    .163384960   -.021879318   -.045297871 
-2.886382732   -.578311754    .020759570   -.026744736 
-2.672755798   -.113774246   -.197632725   -.056295401 
... etc.
# @Etienne's comment: 
# This is obtained in R with
# prcomp(iris[,-5])$x or princomp(iris[,-5])$scores.
# Can also be eigenvector normalized for plotting

Standardized (to unit variances) component scores, when multiplied
by loadings return original centered variables.

Es importante enfatizar que son las cargas, no los vectores propios, por los cuales generalmente interpretamos los componentes principales (o factores en el análisis factorial), si es necesario interpretarlos. Las cargas son los coeficientes regresivos de las variables de modelado por componentes estandarizados . Al mismo tiempo, debido a que los componentes no se correlacionan, son las covarianzas entre dichos componentes y las variables. Las cargas estandarizadas (reescaladas), como las correlaciones, no pueden exceder 1, y son más útiles de interpretar porque se elimina el efecto de las variaciones desiguales de las variables.

Son las cargas, no los vectores propios, que normalmente se muestran en un biplot lado a lado con puntajes de componentes; estos últimos a menudo se muestran normalizados en columna.


Discriminadores lineales de datos de iris :

There is 3 classes and 4 variables: min(3-1,4)=2 discriminants can be extracted.
Only the extraction (no classification of data points) will be done.

Eigenvalues and canonical correlations
(Canonical correlation squared is SSbetween/SStotal of ANOVA by that discriminant)
Dis1    32.19192920     .98482089 
Dis2      .28539104     .47119702
# @Etienne's comment:
# In R eigenvalues are expected from
# lda(as.factor(Species)~.,data=iris)$svd, but this produces
#   Dis1       Dis2
# 48.642644  4.579983
# @ttnphns' comment:
# The difference might be due to different computational approach
# (e.g. me used eigendecomposition and R used svd?) and is of no importance.
# Canonical correlations though should be the same.

Eigenvectors (here, column-normalized to SS=1: cosines of rotation of variables into discriminants)
              Dis1          Dis2
SLength  -.2087418215   .0065319640 
SWidth   -.3862036868   .5866105531 
PLength   .5540117156  -.2525615400 
PWidth    .7073503964   .7694530921

Unstandardized discriminant coefficients (proportionally related to eigenvectors)
              Dis1          Dis2
SLength   -.829377642    .024102149 
SWidth   -1.534473068   2.164521235 
PLength   2.201211656   -.931921210 
PWidth    2.810460309   2.839187853
# @Etienne's comment:
# This is obtained in R with
# lda(as.factor(Species)~.,data=iris)$scaling
# which is described as being standardized discriminant coefficients in the function definition.

Standardized discriminant coefficients
              Dis1          Dis2
SLength  -.4269548486   .0124075316 
SWidth   -.5212416758   .7352613085 
PLength   .9472572487  -.4010378190 
PWidth    .5751607719   .5810398645

Pooled within-groups correlations between variables and discriminants
              Dis1          Dis2
SLength   .2225959415   .3108117231 
SWidth   -.1190115149   .8636809224 
PLength   .7060653811   .1677013843 
PWidth    .6331779262   .7372420588 

Discriminant scores (Centered 4-variable data multiplied by unstandardized coefficients)
     Dis1           Dis2
-8.061799783    .300420621 
-7.128687721   -.786660426 
-7.489827971   -.265384488 
-6.813200569   -.670631068 
-8.132309326    .514462530 
-7.701946744   1.461720967 
-7.212617624    .355836209 
-7.605293546   -.011633838 
-6.560551593  -1.015163624 
-7.343059893   -.947319209
... etc.
# @Etienne's comment:
# This is obtained in R with
# predict(lda(as.factor(Species)~.,data=iris), iris[,-5])$x

Acerca de cálculos en la extracción de discriminantes en LDA favor mire aquí . Interpretamos discriminantes generalmente por coeficientes discriminantes o coeficientes discriminantes estandarizados (estos últimos son más útiles porque se quita la varianza diferencial en las variables). Esto es como en PCA. Pero, tenga en cuenta: los coeficientes aquí son los coeficientes regresivos de modelar discriminantes por variables , no viceversa, como sucedió en PCA. Debido a que las variables no están correlacionadas, los coeficientes no pueden verse como covarianzas entre variables y discriminantes.

Sin embargo, tenemos otra matriz en su lugar que puede servir como una fuente alternativa de interpretación de discriminantes: correlaciones agrupadas dentro del grupo entre los discriminantes y las variables. Debido a que los discriminantes no están correlacionados, como las PC, esta matriz es, en cierto sentido, análoga a las cargas estandarizadas de PCA.

En total, mientras que en PCA tenemos la única matriz, las cargas, para ayudar a interpretar los latentes, en LDA tenemos dos matrices alternativas para eso. Si necesita trazar (biplot o lo que sea), debe decidir si trazar coeficientes o correlaciones.

Y, por supuesto, no hace falta recordar que en PCA de datos de iris los componentes no "saben" que hay 3 clases; no se puede esperar que discriminen clases. Los discriminadores "saben" que hay clases y que su trabajo natural es discriminar.

ttnphns
fuente
Entonces, ¿puedo trazar, después de una escala arbitraria, "coeficientes discriminantes estandarizados" o "correlaciones agrupadas dentro de los grupos entre variables y discriminantes" en el mismo eje que "puntajes discriminantes" para interpretar los resultados de dos maneras diferentes? En mi pregunta tracé "coeficientes discriminantes no estandarizados" en el mismo eje que los "puntajes discriminantes".
Etienne Low-Décarie
1
@ Etienne Agregué los detalles que solicitó al final de esta respuesta stats.stackexchange.com/a/48859/3277 . Gracias por tu generosidad.
ttnphns
1
@TLJ, debe ser: entre variables y componentes estandarizados . He insertado la palabra. Vea por favor aquí : Loadings are the coefficients to predict...al igual que aquí : [Footnote: The components' values...]. Las cargas son coeficientes para calcular variables a partir de componentes estandarizados y ortogonales, en virtud de qué cargas son las covarianzas entre estos y aquellos.
ttnphns
1
@TLJ, "éstos y esos" = variables y componentes. Dijiste que calculabas las puntuaciones de los componentes sin procesar. Estandarizar cada componente a la varianza = 1. Calcule las covarianzas entre las variables y los componentes. Esa sería la carga. La carga "estandarizada" o "reescalada" es la carga dividida por el st. desviación de la variable respectiva.
ttnphns
1
La carga al cuadrado es la parte de la varianza de la variable que representa el componente.
ttnphns
4

Tengo entendido que se pueden hacer biplots de análisis discriminantes lineales, de hecho se implementa en paquetes R ggbiplot y ggord y otra función para hacerlo se publica en este hilo de StackOverflow .

También el libro "Biplots en la práctica" de M. Greenacre tiene un capítulo (capítulo 11, ver pdf ) y en la Figura 11.5 muestra un biplot de un análisis discriminante lineal del conjunto de datos del iris: ingrese la descripción de la imagen aquí

Tom Wenseleers
fuente
En realidad, todo el libro está disponible gratuitamente en línea (un pdf por capítulo) aquí multivariatestatistics.org/biplots.html .
ameba
Aha no se necesitan sitios web dudosos, incluso, ¡gracias por eso!
Tom Wenseleers
2

Sé que esto se hizo hace más de un año, y ttnphns dio una respuesta excelente y profunda, pero pensé en agregar un par de comentarios para aquellos (como yo) que están interesados ​​en PCA y LDA por su utilidad en ecología ciencias, pero tienen antecedentes estadísticos limitados (no estadísticos).

Las PC en PCA son combinaciones lineales de variables originales que explican secuencialmente la varianza total en el conjunto de datos multidimensional. Tendrá tantas PC como variables originales. El porcentaje de la varianza que explican las PC viene dado por los valores propios de la matriz de similitud utilizada, y el coeficiente para cada variable original en cada nueva PC viene dado por los vectores propios. PCA no tiene suposiciones sobre grupos. PCA es muy bueno para ver cómo las variables múltiples cambian de valor en sus datos (en un biplot, por ejemplo). La interpretación de un PCA depende en gran medida del biplot.

LDA es diferente por una razón muy importante: crea nuevas variables (LD) al maximizar la varianza entre los grupos. Estas siguen siendo combinaciones lineales de variables originales, pero en lugar de explicar tanta variación como sea posible con cada LD secuencial, en su lugar, se dibujan para maximizar la DIFERENCIA entre los grupos a lo largo de esa nueva variable. En lugar de una matriz de similitud, LDA (y MANOVA) usan una matriz de comparación de la suma de cuadrados y productos cruzados entre grupos y dentro de ellos. Los vectores propios de esta matriz, los coeficientes que originalmente le preocupaban al OP, describen cuánto contribuyen las variables originales a la formación de los nuevos LD.

Por estas razones, los vectores propios de la PCA le darán una mejor idea de cómo una variable cambia de valor en su nube de datos y cuán importante es para la variación total en su conjunto de datos, que el LDA. Sin embargo, el LDA, particularmente en combinación con un MANOVA, le dará una prueba estadística de la diferencia en los centroides multivariados de sus grupos, y una estimación del error en la asignación de puntos a sus respectivos grupos (en cierto sentido, tamaño del efecto multivariado). En un LDA, incluso si una variable cambia linealmente (y significativamente) entre grupos, su coeficiente en un LD puede no indicar la "escala" de ese efecto, y depende completamente de las otras variables incluidas en el análisis.

Espero que haya quedado claro. Gracias por tu tiempo. Vea una imagen a continuación ...

Las PC y LD están construidas de manera diferente, y los coeficientes para un LD pueden no darle una idea de cómo varían las variables originales en su conjunto de datos

danno
fuente
Todo esto es correcto, y es +1 de mi parte, pero no estoy seguro de cómo su respuesta aborda la pregunta original, que fue muy específicamente acerca de cómo dibujar un biplot LDA.
ameba
Supongo que tiene razón: estaba respondiendo a esto, principalmente "Utilizando un biplot de valores obtenidos a través del análisis de componentes principales, es posible explorar las variables explicativas que componen cada componente principal. ¿Es esto también posible con el Análisis discriminante lineal? " - y la respuesta es sí, pero el significado es muy diferente, como se describió anteriormente ... ¡Gracias por el comentario y +1!
danno