Medidas de separabilidad de clases en problemas de clasificación.

11

Un ejemplo de una buena medida de la separabilidad de clases en estudiantes discriminantes lineales es la relación discriminante lineal de Fisher. ¿Existen otras métricas útiles para determinar si los conjuntos de características proporcionan una buena separación de clases entre las variables de destino? En particular, estoy interesado en encontrar buenos atributos de entrada multivariados para maximizar la separación de la clase objetivo y sería bueno tener una medida no lineal / no paramétrica para determinar rápidamente si proporcionan una buena separabilidad.

palmadita
fuente
Leí sobre la expansión de Karhunen Loeve que permite usar información de clase para la extracción de características. Además, existen extensiones para PCA como el uso del promedio ponderado de las matrices de covarianza de clase en lugar de una matriz global. Además de esta información, también estoy interesado en posibles respuestas a su pregunta.
Zoran

Respuestas:

1

Las medidas de importancia variable (VIM) de bosques aleatorios pueden ser lo que está buscando. Boulesteix et al. Ofrecen una breve descripción general de dos de estos en un documento Descripción general de la metodología de bosque aleatorio y orientación práctica con énfasis en biología computacional y bioinformática .

La idea para el Gini VIM es obtener estadísticas sobre la frecuencia con la que un bosque aleatorio ha utilizado un determinado atributo como criterio de división. Las características informativas se eligen con más frecuencia aquí.

El VIM de permutación se basa en la idea de que las estimaciones de error del clasificador de RF se comparan entre

  • el conjunto de datos original y
  • un conjunto de datos artificial donde los valores para UN atributo se han permutado.

La diferencia de estimación de error resultante será grande para características importantes.

Hasta donde recuerdo, los VIM también se pueden usar para descubrir dependencias entre características.

Damian
fuente
0

Encontrar un conjunto de características óptimas puede ser bastante costoso computacionalmente. Las principales categorías de soluciones disponibles se pueden agrupar en dos conjuntos: enlazar a un clasificador específico (Wrappers) o simplemente clasificar las características según algún criterio (métodos de filtro).

Según sus requisitos (rápido / no paramétrico / no lineal), probablemente necesite candidatos de los métodos de filtro. Hay bastantes ejemplos de los descritos en la literatura . Por ejemplo, Ganancia de información: que evalúa el valor de un atributo midiendo la ganancia de información con respecto a la clase; o Correlación que evalúa el valor de un atributo en función de la correlación entre el atributo y la clase.

Los métodos de envoltura están vinculados a un clasificador y pueden terminar en un mejor conjunto de características para el clasificador de interés. Debido a su naturaleza (entrenamiento / prueba completa en cada iteración) no pueden considerarse rápidos o no paramétricos, sin embargo, pueden tratar con relaciones de características no lineales (su tercer requisito). Un ejemplo sería la Eliminación de características recursivas que se basa en SVM, por lo tanto, apunta a maximizar el margen entre las clases y puede tratar con relaciones no lineales de características (usando un núcleo no lineal).

iliasfl
fuente