En un curso de aprendizaje automático, aprendí que un uso común de PCA ( Análisis de componentes principales ) es acelerar otros algoritmos de aprendizaje automático. Por ejemplo, imagine que está entrenando un modelo de regresión logística. Si tiene un conjunto de entrenamiento para i de 1 a n y resulta que la dimensión de su vector x es muy grande (digamos dimensiones), usted puede usar PCA para obtener una dimensión más pequeña (digamos k dimensiones) con el vector de características z. Luego puede entrenar su modelo de regresión logística en el conjunto de entrenamiento para i de 1 a n. El entrenamiento de este modelo será más rápido porque su vector de características tiene menos dimensiones.
Sin embargo, no entiendo por qué no puede simplemente reducir la dimensión de su vector de características a k dimensiones simplemente eligiendo k de sus características al azar y eliminando el resto.
Los vectores z son combinaciones lineales de sus vectores de características. Dado que los vectores z están confinados a una superficie k-dimensional, puede escribir los valores de características ak eliminados como una función lineal de los k valores de características restantes, y así todas las z pueden formarse mediante combinaciones lineales de sus k características. Entonces, ¿no debería un modelo entrenado en un conjunto de entrenamiento con características eliminadas tener el mismo poder que un modelo entrenado en un conjunto de entrenamiento cuya dimensión se redujo por PCA? ¿Depende solo del tipo de modelo y de si se basa en algún tipo de combinación lineal?
fuente
Respuestas:
Digamos que inicialmente tiene características , pero esto es demasiado, por lo que realmente desea ajustar su modelo a las características . Puede elegir de sus funciones y dejar el resto. Si es nuestra matriz de características, esto corresponde a usarp d<p d X XD D∈{0,1}p×d X XV V∈Rp×d V XV X X d p p
fuente
PCA reduce las características al tiempo que preserva la varianza / información en los datos originales. Esto ayuda a permitir el cálculo sin perder la semejanza de los datos con la realidad.
fuente
Solución de PCA
Primero, tenga cuidado al usar PCA para este propósito. Como escribí en respuesta a una pregunta relacionada, PCA no necesariamente conduce a la selección de características que son informativas para la regresión que tiene la intención de hacer (ver también Jolliffe 1982 ).
OP propuesta solución
reduce the dimension of your feature vector to k dimensions by just choosing k of your features at random and eliminating the rest.
dimension of your vector x is very large
Solución sugerida
fuente