Un ejemplo de una buena medida de la separabilidad de clases en estudiantes discriminantes lineales es la relación discriminante lineal de Fisher. ¿Existen otras métricas útiles para determinar si los conjuntos de características proporcionan una buena separación de clases entre las variables de destino? En particular, estoy interesado en encontrar buenos atributos de entrada multivariados para maximizar la separación de la clase objetivo y sería bueno tener una medida no lineal / no paramétrica para determinar rápidamente si proporcionan una buena separabilidad.
11
Respuestas:
Las medidas de importancia variable (VIM) de bosques aleatorios pueden ser lo que está buscando. Boulesteix et al. Ofrecen una breve descripción general de dos de estos en un documento Descripción general de la metodología de bosque aleatorio y orientación práctica con énfasis en biología computacional y bioinformática .
La idea para el Gini VIM es obtener estadísticas sobre la frecuencia con la que un bosque aleatorio ha utilizado un determinado atributo como criterio de división. Las características informativas se eligen con más frecuencia aquí.
El VIM de permutación se basa en la idea de que las estimaciones de error del clasificador de RF se comparan entre
La diferencia de estimación de error resultante será grande para características importantes.
Hasta donde recuerdo, los VIM también se pueden usar para descubrir dependencias entre características.
fuente
Encontrar un conjunto de características óptimas puede ser bastante costoso computacionalmente. Las principales categorías de soluciones disponibles se pueden agrupar en dos conjuntos: enlazar a un clasificador específico (Wrappers) o simplemente clasificar las características según algún criterio (métodos de filtro).
Según sus requisitos (rápido / no paramétrico / no lineal), probablemente necesite candidatos de los métodos de filtro. Hay bastantes ejemplos de los descritos en la literatura . Por ejemplo, Ganancia de información: que evalúa el valor de un atributo midiendo la ganancia de información con respecto a la clase; o Correlación que evalúa el valor de un atributo en función de la correlación entre el atributo y la clase.
Los métodos de envoltura están vinculados a un clasificador y pueden terminar en un mejor conjunto de características para el clasificador de interés. Debido a su naturaleza (entrenamiento / prueba completa en cada iteración) no pueden considerarse rápidos o no paramétricos, sin embargo, pueden tratar con relaciones de características no lineales (su tercer requisito). Un ejemplo sería la Eliminación de características recursivas que se basa en SVM, por lo tanto, apunta a maximizar el margen entre las clases y puede tratar con relaciones no lineales de características (usando un núcleo no lineal).
fuente