Me parece que el aprendizaje conjunto siempre dará un mejor rendimiento predictivo que con una sola hipótesis de aprendizaje.
Entonces, ¿por qué no los usamos todo el tiempo?
¿Mi conjetura es quizás debido a limitaciones computacionales? (incluso entonces, usamos predictores débiles, así que no lo sé).
Respuestas:
En general, no es cierto que siempre funcionará mejor. Existen varios métodos de conjunto, cada uno con sus propias ventajas / debilidades. Cuál usar y luego depende del problema en cuestión.
Por ejemplo, si tiene modelos con alta varianza (se ajustan demasiado a sus datos), entonces es probable que se beneficie con el uso de embolsado. Si tiene modelos sesgados, es mejor combinarlos con Boosting. También hay diferentes estrategias para formar conjuntos. El tema es demasiado amplio para cubrirlo en una sola respuesta.
Pero mi punto es: si usa el método de conjunto incorrecto para su configuración, no lo hará mejor. Por ejemplo, usar Bagging con un modelo sesgado no va a ayudar.
Además, si necesita trabajar en un entorno probabilístico, es posible que los métodos de conjunto tampoco funcionen. Se sabe que Boosting (en sus formas más populares como AdaBoost) ofrece estimaciones de probabilidad pobres. Es decir, si desea tener un modelo que le permita razonar sobre sus datos, no solo sobre la clasificación, podría estar mejor con un modelo gráfico.
fuente