¿Por qué xgboost es mucho más rápido que sklearn GradientBoostingClassifier?
Estoy tratando de entrenar un modelo de aumento de gradiente en más de 50k ejemplos con 100 características numéricas. XGBClassifiermaneja 500 árboles en 43 segundos en mi máquina, mientras que GradientBoostingClassifiermaneja solo 10 árboles (!) en 1 minuto y 2 segundos :( No me molesté en tratar...
scikit-learn
xgboost
gbm
data-mining
classification
data-cleaning
machine-learning
reinforcement-learning
data-mining
bigdata
dataset
nlp
language-model
stanford-nlp
machine-learning
neural-network
deep-learning
randomized-algorithms
machine-learning
beginner
career
xgboost
loss-function
neural-network
software-recommendation
naive-bayes-classifier
classification
scikit-learn
feature-selection
r
random-forest
cross-validation
data-mining
python
scikit-learn
random-forest
churn
python
clustering
k-means
machine-learning
nlp
sentiment-analysis
machine-learning
programming
python
scikit-learn
nltk
gensim
visualization
data
csv
neural-network
deep-learning
descriptive-statistics
machine-learning
supervised-learning
text-mining
orange
data
parameter-estimation
python
pandas
scraping
r
clustering
k-means
unsupervised-learning