内核逻辑回归与SVM


32

众所周知,SVM可以使用内核方法将数据点投影到较高的空间中,以便可以用线性空间分隔这些点。但是我们也可以使用逻辑回归在内核空间中选择此边界,那么SVM有何优势?由于SVM使用的稀疏模型在预测时仅由那些支持向量做出贡献,因此这会使SVM的预测速度更快吗?


1
Hastie的幻灯片正是您所需要的
Yibo Yang

Answers:


28

KLR和SVM

  1. 在两种情况下,分类性能几乎相同。
  2. KLR可以提供类概率,而SVM是确定性分类器。
  3. KLR对多类分类有自然的扩展,而在SVM中,有多种方法可以将其扩展到多类分类(并且,是否有一种版本具有可证明的优越性仍是一个研究领域)。
  4. 出乎意料的是,KLR还具有SVM所享有的最佳保证金属性(至少在极限范围内)!

综上所述,您几乎应该使用内核逻辑回归。但是,SVM具有某些优势

  1. Øñ3Øñ2ķķ
  2. SVM中的分类器设计为仅根据支持向量进行定义,而在KLR中,分类器在所有点上进行定义,而不仅仅是支持向量。这使SVM可以享受某些自然的提速(就有效的代码编写而言),这对于KLR而言是很难实现的。

7
+1我只是要补充一点,如果计算复杂性成为问题,那么通过贪婪地选择基向量以最小化训练集或其他方法的正则损失来构造稀疏内核逻辑回归模型并不是太困难。例如,请参见“信息向量机”上的文章。
迪克兰有袋博物馆,2012年

4
同样,如果优化SVM的内核和正则化参数,通常会得到一个模型,其中几乎所有数据都是支持向量。SVM的稀疏性是一件令人高兴的事情,它并不是该技术的一个好卖点,因为通常可以通过其他方法实现更大的稀疏性。
迪克兰有袋博物馆,2012年

1
@DikranMarsupial感谢您提供信息向量机的指针。我知道稀疏KLR中的一些作品,但到目前为止,我认为其中的任何作品都无法很好地适用于大型数据集。无论哪种方式,释放像libSVM或SVM Light这样的用户友好的稀疏KLR的良好实现都可以在很大程度上被采用。抱歉,如果已经存在这样的实现,但是我不知道有任何实现。(编辑:我认为您的意思是“导入矢量机”而不是“信息矢量机”?)
TenaliRaman 2012年

2
如果最终将所有数据点作为支持向量,则说明您过度适合。RBF会多次发生这种情况。实际上,作为SVM的使用者,我学到的基本知识之一就是首先检查作为支持向量的点的分数。如果它超过数据的30%,我将完全拒绝该模型。
TenaliRaman 2012年

3
所有数据点都是SV表示过度拟合是不正确的。如果C的值很小,那么对松弛变量的惩罚很小,那么您可以拥有一个非常平淡的分类器(这在训练集上造成很多错误),并且裕度是如此之大,以至于所有数据都是支持向量。拒绝非稀疏模型不是一个好的经验法则,因为有时具有最佳泛化性能的SVM是非稀疏的。SV的数量是留一法错误的上限,但实际上确实是一个非常失败的界限!
迪克兰有袋博物馆,2012年

15

这是我对这个问题的看法:

SVM是一种非常优雅的分类方法。有一些不错的理论,一些漂亮的数学,它们很好地概括了,而且也不太慢。尝试使用它们进行回归,但会变得混乱。

  • 这是有关SVM回归的资源。请注意旋转的额外参数,以及有关优化算法的深入讨论。

高斯过程回归具有很多相同的内核数学,并且对于回归非​​常有用。再次,非常优雅,而且不太慢。尝试将它们用于分类,这会让人感到很困惑。

  • 这是GP手册中有关回归的一章

  • 这是有关分类的一章,以供比较。请注意,您最终得到了一些复杂的近似值或迭代方法。

但是,使用GP进行分类的一个好处是,它可以为您提供预测分布,而不是简单的是/否分类。


2
+1 GPs是KLR的很好选择(尽管KLR通常会提供更好的性能,因为如果存在模型错误指定,基于证据的模型选择很容易出错),并且交叉验证通常更可取。
迪克兰有袋博物馆,2012年

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.