Los métodos de kernel son muy efectivos en muchas tareas de clasificación supervisadas. Entonces, ¿cuáles son las limitaciones de los métodos del núcleo y cuándo usar los métodos del núcleo? Especialmente en la era de los datos a gran escala, ¿cuáles son los avances de los métodos del núcleo? ¿Cuál es la diferencia entre los métodos del núcleo y el aprendizaje de múltiples instancias? Si los datos son 500x10000
, 500
es el recuento de muestras, y 10000
es la dimensión de cada característica, entonces, en esta circunstancia, ¿podemos usar los métodos del núcleo?
fuente
RBF
kernellibsvm
, siempre se sobreajusta, el clasificador logra una alta precisión pero baja precisión en el conjunto de pruebas. Y si hago la reducción de dimensiones antes del clasificador, y las dimensiones reducidas están cerca del número de muestras de entrenamiento, el clasificador puede lograr un buen beneficio entre el entrenamiento y el conjunto de pruebas. ¿Los resultados se ajustan a la mayoría de los resultados empíricos? Gracias.gamma
para el kernel RBF. El valor óptimo paragamma
está relacionado con el número de dimensiones de entrada. El enfoque de ajuste más común es la validación cruzada. Si utilizó el mismo valorgamma
con y sin reducción de dimensionalidad, probablemente esté cometiendo un error.grid.py
inlibsvm
para hacer validación cruzada. Y en la mayoría de las circunstancias, para datos de altas dimensiones, elgamma
siempre muy pequeño, como0.00001
este nivel.EnsembleSVM
, ¿necesita hacer que el procedimiento de validación cruzada sea multiproceso? Y creo que en la etapa de predicción, ¿será bueno predecir los enormes datos en lotes y máquinas de subprocesos múltiples o múltiples?esvm-train
yesvm-predict
. Para desactivar multihilo, utilice el siguiente indicador en esas herramientas:-threads 1
.