有支持SVM的应用程序吗?


10

SVM算法非常古老-它于1960年代开发,但是在1990年代和2000年代非常流行。它是机器学习课程的经典(而且非常漂亮)的一部分。

如今,似乎在媒体处理(图像,声音等)中,神经网络已完全占据主导地位,而在其他领域,梯度提升却占据了非常重要的位置。

另外,在最近的数据竞赛中,我没有观察到基于SVM的解决方案。

我正在寻找SVM仍能提供最新结果(截至2016年)的应用示例。

更新:我想举一些例子,在解释SVM时可以给学生/同事例如,这样它看起来不像是纯粹的理论或过时的方法。


3
在什么意义上优越?一些性能指标?训练深层神经网络需要大量的计算机时间,但是我可以在笔记本电脑上训练可维护的SVM。
Sycorax说,请

@ user777我的意思是当然适用于应用程序领域的分类/回归度量。DL的计算复杂性问题很重要,但这有点超出了此问题的范围。
Alleo

Answers:


11

根据该论文,我们需要数百个分类器来解决现实世界中的分类问题吗?SVM与Random Forest和Gradient Boots Machines一起是针对120多个数据集(使用精度作为度量标准)的最佳分类算法。

我对它们进行了一些修改,然后重复进行了实验,使这三个分类器的性能优于其他分类器,但正如免费午餐定理所言,总是存在其他一些算法的性能优于这三个分类器的问题。

所以是的,我要说的是,SVM(具有高斯内核-这就是我使用的)仍然是与非媒体相关的数据集的相关算法。


嗨,谢谢您的回复!我看过这项有趣的研究。据我了解,该想法是在不进行任何严重调整的情况下查看分类器的数量(而数据分析人员执行IMO调整)。与区域相关的研究将更加有趣。
Alleo

1
我记得Delgado等人并没有对最好的超参数进行非常详细的搜索,但是如果他们确实进行了一些搜索。问题(我没有答案)是,对最佳hypeparameters进行更细粒度的搜索是否会导致不同的结果。如果这是真的,那将意味着与SVM竞争的算法通常在特定超参数的准确性上具有非常尖锐的峰值,我认为这对算法是不利因素。
雅克·怀纳

还有一个小意见是,UCI数据集(用于测试)大多很小。我想知道这是否可以解释助推效果不佳的原因?大多数kaggle挑战(具有大量数据)证明了GB的卓越性能。
Alleo

我同意这些数据集很小。对于较大的数据集,我现在一直在使用随机森林-一旦我对超参数感到满意,将开始使用GBM-我不知道GBM对他们来说多么明智。
雅克·怀纳
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.