对于增强算法,我想说它们发展得很好。1995年初引入了AdaBoost,然后过了一段时间,它是Gradient Boosting Machine(GBM)。最近,在2015年左右推出了XGBoost,它非常准确,可以处理过度拟合,并且已成为多次Kaggle竞赛的获胜者。LightGBM在2017年由Microsoft引入,与XGBoost相比,它提供的培训时间大大减少。此外,Yandex推出了CatBoost,用于处理分类功能。
随机森林(Random Forest)于2000年代初推出,但是有没有值得的继任者?我认为,如果存在一种比Random Forest更好的装袋算法(可以在实践中轻松应用),它将在像Kaggle这样的地方引起关注。另外,为什么增强成为更流行的集成技术,是因为您可以构建更少的树以获得最佳预测?
1
adaBoost实际上是在1995年推出的,但这是一个很小的观点,不会改变您的基本命题。
—
jbowman
BART(arxiv.org/abs/0806.3286)是一种贝叶斯模型,它是从单树贝叶斯CART演变而来,并受到经典集成方法的启发。值得探索。
—
禅
提振变得更受欢迎,因为它可以成功地解决学习者技能低下的许多问题
—
Refael
正规的贪婪森林可能值得一提(缓慢但有一些不错的结果),而分位数的随机森林则具有凉爽的副作用。
—
Michael M