Answers:
有四个主要优点:首先,它具有正则化参数,这使用户可以考虑避免过度拟合。其次,它使用内核技巧,因此您可以通过对内核进行设计来积累有关该问题的专业知识。第三,支持向量机由凸优化问题(无局部最小值)定义,对此问题有有效的方法(例如SMO)。最后,它近似于测试错误率的界限,并且背后有大量的理论基础表明这应该是一个好主意。
缺点是该理论实际上仅涵盖针对给定值的正则化和内核参数以及内核选择的参数确定。SVM在某种程度上将过度拟合的问题从优化参数转移到了模型选择。可悲的是,内核模型对于过度拟合模型选择标准可能非常敏感,请参见
GC Cawley和NLC Talbot,模型选择中的过拟合和性能评估中的后续选择偏差,《机器学习研究期刊》,2010年。11,第2079-2107页,2010年7月。(pdf)
但是请注意,此问题并非内核方法独有,大多数机器学习方法也存在类似问题。SVM中使用的铰链损耗会导致稀疏。但是,内核和正则化参数的最佳选择通常意味着最终所有数据都是支持向量。如果您真的想要一台稀疏的内核机器,请使用一开始就设计为稀疏的东西(而不是有用的副产品),例如信息向量机。用于支持向量回归的损失函数没有明显的统计解释,通常可以在损失函数中编码问题的专家知识,例如Poisson或Beta或Gaussian。同样,在许多分类问题中,您实际上希望获得类成员的概率,
这就是我能想到的所有东西。