Hay una variante de impulso llamada gentleboost . ¿En qué se diferencia el impulso suave del AdaBoost más conocido ?
machine-learning
boosting
Vebjorn Ljosa
fuente
fuente
Respuestas:
El segundo artículo que cita parece contener la respuesta a su pregunta. Recordar; matemáticamente, la principal diferencia está en la forma de la función de pérdida utilizada. La función de pérdida de Friedman, Hastie y Tibshirani es más fácil de optimizar en cada iteración. -
fuente