Preguntas etiquetadas con bagging

La agregación en bolsa o bootstrap es un caso especial de promediado de modelos. Dado un conjunto de entrenamiento estándar, el agrupamiento genera nuevos conjuntos de entrenamiento mediante bootstrapping, y luego se promedian los resultados de usar algún método de entrenamiento en los conjuntos de datos generados. El embolsado puede estabilizar los resultados de algunos métodos inestables, como los árboles. metro metro metro metro

17
Impulso y embolsado de árboles (XGBoost, LightGBM)

Hay muchas publicaciones de blog, videos de YouTube, etc. sobre las ideas de embolsar o impulsar árboles. Mi comprensión general es que el pseudocódigo para cada uno es: Harpillera: Tome N muestras aleatorias de x% de las muestras y y% de las características Ajuste su modelo (p. Ej., Árbol de...

15
¿Qué método de comparación múltiple usar para un modelo lmer: lsmeans o glht?

Estoy analizando un conjunto de datos utilizando un modelo de efectos mixtos con un efecto fijo (condición) y dos efectos aleatorios (participante debido al diseño del sujeto y al par). El modelo se ha generado con el lme4paquete:

13
¿Por qué no usar siempre el aprendizaje conjunto?

Me parece que el aprendizaje conjunto siempre dará un mejor rendimiento predictivo que con una sola hipótesis de aprendizaje. Entonces, ¿por qué no los usamos todo el tiempo? ¿Mi conjetura es quizás debido a limitaciones computacionales? (incluso entonces, usamos predictores débiles, así que no...

9
Confusión relacionada con la técnica de embolsado.

Estoy teniendo un poco de confusión. Estaba leyendo este documento donde explicaba que la técnica de embolsado reduce en gran medida la varianza y solo aumenta ligeramente el sesgo. No lo entendí, ¿cómo es que reduce la varianza? Sé lo que es la varianza y el sesgo. El sesgo es la incapacidad del...