En el análisis factorial (o en PCA), ¿qué significa un factor de carga mayor que 1?

10

Acabo de ejecutar un FA usando una rotación oblicua (promax) y un elemento arrojó una carga de factor de 1.041 en un factor, (y cargas de factor de -.131, -.119 y .065 en los otros factores usando matriz de patrones ) . Y no estoy seguro de lo que significa, pensé que podría ser solo entre -1 y 1.

¿Se debe a la rotación oblicua? ¿Y puede la carga exceder 1 con factores ortogonales?

Rodrigo M. Rosales
fuente

Respuestas:

10

¿Quién te dijo que las cargas factoriales no pueden ser mayores que 1? Puede pasar. Especialmente con factores altamente correlacionados.

Este pasaje de un informe al respecto de un destacado pionero de SEM lo resume bastante:

"Este malentendido probablemente se deriva del análisis factorial exploratorio clásico donde las cargas de factores son correlaciones si se analiza una matriz de correlación y los factores están estandarizados y no correlacionados (ortogonales). Sin embargo, si los factores están correlacionados (oblicuos), las cargas de factores son coeficientes de regresión y no correlaciones y, como tales, pueden ser mayores que uno en magnitud ".

gammer
fuente
5

La carga en el análisis factorial o en PCA ( ver 1 , ver 2 , ver 3 ) es el coeficiente de regresión, ponderación en una combinación lineal que predice variables (ítems) por factores / componentes estandarizados (varianza unitaria).

Razones para que una carga exceda :1

Razón 1: matriz de covarianza analizada. Si se analizaron variables estandarizadas, es decir, el análisis se basó en la matriz de correlación , luego de la extracción o después de la rotación ortogonal (como varimax), cuando los factores / componentes permanecen sin correlación, las cargas también son los coeficientes de correlación. Esa es la propiedad de la ecuación de regresión lineal: con predictores estandarizados ortogonales, los parámetros equivalen a las correlaciones de Pearson. Entonces, en tal caso, la carga no puede ser más allá de [-1, 1].

Pero si se analizaron solo variables centradas, es decir, el análisis se basó en una matriz de covarianza , entonces las cargas no tienen que limitarse a [-1, 1] porque los coeficientes de regresión es que tal modelo no necesita ser igual a los coeficientes de correlación. Son, en realidad, covarianzas. Tenga en cuenta que se trataba de cargas en bruto. Existen cargas "reescaladas" o "estandarizadas" (descritas en los enlaces que di en el primer párrafo) que se reescalan para no abandonar la banda [-1, 1].

Motivo 2: rotación oblicua. Después de la rotación oblicua , como promax u oblimin, tenemos dos tipos de cargas: matriz de patrón (coeficientes de regresión o cargas per se) y matriz de estructura (coeficientes de correlación). No son iguales entre sí debido a la razón dada anteriormente: los coeficientes de regresión de los predictores correlacionados son diferentes de las correlaciones de Pearson. Por lo tanto, una carga de patrón puede estar fácilmente más allá de [-1, 1]. Tenga en cuenta que es cierto incluso cuando la matriz de correlación fue la matriz analizada. Entonces, así es como los factores / componentes son oblicuos.

Motivo 3 (raro): caso Heywood. El caso de Heywood ( pt 6 ) es una dificultad en los algoritmos de análisis factorial cuando la carga de iteraciones excede la magnitud teóricamente permitida; ocurre cuando la comunalidad supera la varianza. El caso de Heywood es una situación rara y se encuentra en algunos conjuntos de datos, generalmente cuando hay muy pocas variables para admitir la cantidad de factores solicitada. Los programas informan que hay un error de caso Heywood y detienen o intentan resolverlo.

ttnphns
fuente