哪些套袋算法值得随机森林公司接班?


14

对于增强算法,我想说它们发展得很好。1995年初引入了AdaBoost,然后过了一段时间,它是Gradient Boosting Machine(GBM)。最近,在2015年左右推出了XGBoost,它非常准确,可以处理过度拟合,并且已成为多次Kaggle竞赛的获胜者。LightGBM在2017年由Microsoft引入,与XGBoost相比,它提供的培训时间大大减少。此外,Yandex推出了CatBoost,用于处理分类功能。

随机森林(Random Forest)于2000年代初推出,但是有没有值得的继任者?我认为,如果存在一种比Random Forest更好的装袋算法(可以在实践中轻松应用),它将在像Kaggle这样的地方引起关注。另外,为什么增强成为更流行的集成技术,是因为您可以构建更少的树以获得最佳预测?


1
adaBoost实际上是在1995年推出的,但这是一个很小的观点,不会改变您的基本命题。
jbowman

3
自从随机森林以来,我们还看到了引入高度随机化的树木的经验,尽管我并没有真正意识到任何有力的证据表明这些森林在任何一致性方面都优于随机森林,所以它们可能不是“值得”的继任者……
杰克西部荒野'18

1
BART(arxiv.org/abs/0806.3286)是一种贝叶斯模型,它是从单树贝叶斯CART演变而来,并受到经典集成方法的启发。值得探索。

提振变得更受欢迎,因为它可以成功地解决学习者技能低下的许多问题
Refael

正规的贪婪森林可能值得一提(缓慢但有一些不错的结果),而分位数的随机森林则具有凉爽的副作用。
Michael M

Answers:


3

xgboost,catboost和lightgbm使用随机森林的某些功能(变量/观测值的随机采样),因此我认为它们是boosting和RF的继承者,并从二者中汲取了最好的东西。;)

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.