Usando Adaboost con SVM para la clasificación

11

Sé que Adaboost intenta generar un clasificador fuerte usando una combinación lineal de un conjunto de clasificadores débiles.

Sin embargo, he leído algunos documentos que sugieren que Adaboost y SVM funcionan en armonía (aunque SVM es un clasificador fuerte) en ciertas condiciones y casos .

No puedo entender desde una perspectiva arquitectónica y de programación cómo funcionan en combinación. He leído muchos artículos (quizás los incorrectos) que no explican claramente cómo funcionan juntos.

¿Alguien puede arrojar algo de luz sobre cómo funcionan en una combinación para una clasificación efectiva? También se agradecerán los consejos sobre algunos artículos / artículos / revistas.

garak
fuente

Respuestas:

8

Este artículo es bastante bueno. Simplemente dice que SVM puede tratarse como un clasificador débil si usa menos muestras para entrenarlo (digamos menos de la mitad del conjunto de entrenamiento). Cuanto mayor sea el peso, más posibilidades tendrá de ser entrenado por el 'SVM débil'

editar: enlace arreglado ahora.

poperin
fuente
Sé que esta es una vieja pregunta, pero el enlace está roto. ¿Conoces el título del artículo o el nombre del autor para que pueda encontrar un enlace alternativo?
carlosdc
En caso de que el enlace vuelva a desaparecer en el futuro, Elkin García y Fernando Lozano llaman "Boosting Support Vector Machines".
Dougal
2

El documento AdaBoost con clasificadores de componentes basados ​​en SVM de Xuchun Li etal también da una intuición.
En un resumen breve pero sesgado: están tratando de hacer que los clasificadores svm sean "débiles" (un poco más del 50%) ajustando los parámetros para evitar los casos en que un clasificador puede tener demasiado peso o todos los clasificadores se disparan de manera similar.

ZijunLost
fuente