Estoy aprendiendo sobre la selección de funciones. Puedo ver por qué sería importante y útil para la construcción de modelos. Pero centrémonos en las tareas de aprendizaje supervisado (clasificación). ¿Por qué es importante la selección de características para las tareas de clasificación?
Veo mucha literatura escrita sobre la selección de características y su uso para el aprendizaje supervisado, pero esto me desconcierta. La selección de características se trata de identificar qué características desechar. Intuitivamente, descartar algunas características parece autodestructivo: está desechando información. Parece que arrojar información no debería ayudar.
E incluso si eliminar algunas características ayuda, si estamos descartando algunas características y luego introduciendo el resto en un algoritmo de aprendizaje supervisado, ¿por qué necesitamos hacerlo nosotros mismos, en lugar de dejar que el algoritmo de aprendizaje supervisado lo maneje? Si alguna característica no es útil, ¿no debería un algoritmo de aprendizaje supervisado decente descubrirlo implícitamente y aprender un modelo que no use esa característica?
De manera intuitiva, hubiera esperado que la selección de características fuera un ejercicio inútil que nunca ayuda y que a veces puede doler. Pero el hecho de que sea tan ampliamente utilizado y escrito me hace sospechar que mi intuición es defectuosa. ¿Alguien puede dar alguna intuición de por qué la selección de características es útil e importante cuando se realiza un aprendizaje supervisado? ¿Por qué mejora el rendimiento del aprendizaje automático? ¿Depende de qué clasificador utilizo?