Entonces, tengo una matriz de aproximadamente 60 x 1000. Lo estoy viendo como 60 objetos con 1000 características; Los 60 objetos se agrupan en 3 clases (a, b, c). 20 objetos en cada clase, y sabemos la verdadera clasificación. Me gustaría hacer un aprendizaje supervisado en este conjunto de 60 ejemplos de capacitación, y estoy interesado tanto en la precisión del clasificador (y las métricas relacionadas) como en la selección de funciones en las 1000 funciones.
Primero, ¿cómo está mi nomenclatura?
Ahora la verdadera pregunta:
Podría arrojar bosques aleatorios sobre él como se indicó, o cualquier número de otros clasificadores. Pero hay una sutileza: realmente solo me importa diferenciar la clase c de las clases a y b. Podría agrupar las clases a y b, pero ¿hay una buena manera de utilizar el conocimiento a priori de que todos los objetos que no son c probablemente forman dos grupos distintos? Prefiero usar bosques aleatorios o una variante de los mismos, ya que se ha demostrado que es efectivo en datos similares a los míos. Pero podría estar convencido de probar otros enfoques.
Respuestas:
Si está utilizando un método basado en árbol, no creo que importe, ya que estos clasificadores dividen el espacio de características y luego mire la proporción de muestras en cada clase. Entonces, lo único que importa es la ocurrencia relativa de la clase c en cada nodo terminal.
Sin embargo, si estaba usando algo como una mezcla de normales, LDA, etc., combinar dos grupos sería una mala idea (suponiendo que las clases ayb formen grupos únicos). Aquí debe preservar la estructura de clase para describir con precisión el espacio de características que se asigna a a, byc. Estos modelos suponen que las características para cada clase tienen una distribución Normal diferente. Si combina a y b, forzará una sola distribución Normal para que se ajuste a una mezcla.
En resumen para los árboles, no debería importar mucho si usted:
I. Cree tres clasificadores (1. a vs b, 2. a vs c y 3. b vs c) y luego prediga con un método basado en votación.
II Combinar las clases ayb para formar un problema de dos clases.
III. Predecir las tres clases y luego asignar la predicción a un valor de dos clases (por ejemplo, f (c) = c, f (a) = no c, f (b) = no c).
Sin embargo, si utiliza un método que se ajuste a una distribución para cada clase, evite II. y probar cuál de I. o III. funciona mejor para tu problema
fuente