Matriz de covarianza inversa vs matriz de covarianza en PCA

10

En PCA, ¿hace alguna diferencia si elegimos componentes principales de la matriz de covarianza inversa O si eliminamos los vectores propios de la matriz de covarianza correspondientes a valores propios grandes?

Esto está relacionado con la discusión en esta publicación .

Mustafa Arif
fuente

Respuestas:

12

Observe que para una matriz de covarianza definida positiva la precisión es \ boldsymbol \ Sigma ^ {- 1} = \ mathbf {UD} ^ {- 1} \ mathbf U' .Σ=UDUΣ1=UD1U

Por lo tanto, los vectores propios permanecen iguales, pero los valores propios de la precisión son los recíprocos de los valores propios de la covarianza. Eso significa que los valores propios más grandes de la covarianza serán los valores propios más pequeños de la precisión. Como tiene el inverso, la definición positiva garantiza que todos los valores propios son mayores que cero.

Por lo tanto, si conserva los vectores propios relacionados con los valores propios más pequeños de la precisión, esto corresponde a la PCA ordinaria. Como ya hemos tomado recíprocos ( ), solo se debe usar la raíz cuadrada de los valores propios de precisión para completar el blanqueamiento de los datos transformados.kD1

conjeturas
fuente
+1 pero creo que su oración "Entonces sí, hace la diferencia" podría ser confusa para el OP; la Q no está muy clara, pero creo que estaban preguntando si hay una diferencia entre seleccionar los valores propios más grandes de la matriz inv cov y seleccionar los valores propios más pequeños (= soltar los más grandes) de la matriz cov. A esta pregunta, la respuesta es que es equivalente. Entonces, si simplemente corta esta oración, la respuesta será más clara.
ameba
Gracias, entiendo lo que quieres decir y he editado en consecuencia.
conjeturas
En realidad, la última oración fue buena, ¡la habría guardado!
ameba
@conjeturas Gracias, esa es la explicación perfecta.
Mustafa Arif el
0

Además, la matriz de covarianza inversa es proporcional a la correlación parcial entre los vectores:

Corr(Xi, Xj | (Xothers )

La correlación entre Xi y Xj cuando todos los demás están arreglados, es muy útil para series de tiempo.

QuantCode
fuente
1
Esto es cierto, pero ¿qué tiene eso que ver con PCA?
ameba