He estado leyendo un poco sobre algoritmos de refuerzo para tareas de clasificación y Adaboost en particular. Entiendo que el propósito de Adaboost es llevar a varios "estudiantes débiles" y, a través de un conjunto de iteraciones sobre los datos de entrenamiento, empujar a los clasificadores para aprender a predecir las clases en las que los modelos cometen errores repetidamente. Sin embargo, me preguntaba por qué tantas de las lecturas que he hecho han utilizado árboles de decisión como clasificador débil. ¿Hay alguna razón en particular para esto? ¿Hay ciertos clasificadores que sean candidatos particularmente buenos o malos para Adaboost?
machine-learning
classification
algorithms
boosting
kylerthecreator
fuente
fuente
Respuestas:
Hablé sobre esto en una respuesta a una pregunta SO relacionada . Los árboles de decisión generalmente son muy adecuados para impulsar, mucho más que otros algoritmos. La versión de resumen / viñeta es esta:
fuente
No tengo una respuesta de libro de texto. Sin embargo, aquí hay algunos pensamientos.
El refuerzo se puede ver en comparación directa con el embolsado. Estos son dos enfoques diferentes del dilema de compensación de la variación de sesgo. Mientras que el embolsado tiene como alumnos débiles, algunos alumnos con bajo sesgo y alta varianza, al promediar el conjunto de embolsado, disminuyen la varianza para un pequeño sesgo. Impulsar, por otro lado, funciona bien con diferentes estudiantes débiles. Los estudiantes débiles estimulantes tienen un alto sesgo y una baja varianza. Al construir un alumno en la parte superior de otro, el conjunto de refuerzo intenta disminuir el sesgo, para una pequeña variación.
Como consecuencia, si considera, por ejemplo, utilizar el embolsado y el refuerzo con árboles como estudiantes débiles, la mejor manera de utilizarlo es con árboles pequeños / cortos con árboles estimulantes y muy detallados con embolsado. Es por eso que muy a menudo un procedimiento de refuerzo utiliza un tocón de decisión como aprendiz débil, que es el árbol más corto posible (una sola condición si en una sola dimensión). Este tocón de decisión es muy estable, por lo que tiene una varianza muy baja.
No veo ninguna razón para usar árboles con procedimientos de refuerzo. Sin embargo, los árboles cortos son simples, fáciles de implementar y fáciles de entender. Sin embargo, creo que para tener éxito con un procedimiento de refuerzo, su alumno débil debe tener una variación baja, debe ser rígido, con muy pocos grados de libertad. Por ejemplo, no veo el punto de tener como aprendiz débil una red neuronal.
Además, debe tener en cuenta que para algún tipo de procedimientos de refuerzo, por ejemplo, el aumento de gradiente, Breiman descubrió que si el alumno débil es un árbol, se puede optimizar la forma en que funciona el refuerzo. Por lo tanto, tenemos árboles que aumentan el gradiente. Hay una buena exposición de impulso en el libro ESTL.
fuente