Answers:
可以办到; ICML的研讨会论文《使用线性支持向量机进行深度学习》(Tang(2013))做到了这一点,并发现了微小但一致的改进。有时也可以用典型的方式来训练CNN,但是随后将后期层的输出作为“功能”,并在其上训练一个单独的SVM。
但是请注意,他们使用的是线性 SVM,实际上,线性SVM与逻辑回归(等效于具有S型激活的单个二进制输出层)之间的差异非常小。假设您有足够的数据来学习,则网络的附加层实际上会使后两层比线性SVM坚固—尽管您当然可以做一个完全连接的S型或ReLU层,然后将SVM置于最后。
同样,对于多类输出,softmax激活比多类SVM更自然,我认为该论文的SVM方法在计算上更加密集。所以人们通常只是不认为这是值得的。
据我所知,至少有一些区别:
话虽如此,只要将良好的功能与良好的内核功能配合使用,SVM就能像CNN一样工作。