为什么CNN以FC层结尾?


11

据我了解,CNN由两部分组成。第一部分(转换/池层)进行特征提取,第二部分(fc层)对特征进行分类。

由于完全连接的神经网络不是最佳分类器(即,大多数情况下它们的性能优于SVM和RF),因此CNN为什么以FC层作为结束,而不是说SVM或RF?

Answers:


4

这不是那么简单。首先,从某种意义上说,SVM是一种神经网络(您可以通过反向传播学习SVM解决方案)。请参阅什么是人工神经网络?。其次,您无法事先知道哪种模型会更好,但是事情是通过完全神经形态的架构,您可以端到端地学习权重,而将SVM或RF附加到CNN的最后一个隐藏层激活是只是一个临时程序。如果没有测试,它可能会更好,但可能不会。

重要的部分是完全卷积的体系结构能够进行表示学习,这出于多种原因很有用。一次,它可能会完全减少或消除您的问题中的功能设计。

关于FC层,它们在数学上等效于1x1卷积层。请参阅Yann Lecun的帖子,我在下面抄写:

在卷积网中,不存在“全连接层”之类的东西。只有带有1x1卷积内核和完整连接表的卷积层。

ConvNets不需要固定大小的输入,这是一个非常罕见的事实。您可以在碰巧产生单个输出矢量(没有空间范围)的输入上训练它们,然后将它们应用于更大的图像。然后,您将获得输出矢量的空间图,而不是单个输出矢量。每个向量都会在输入的不同位置看到输入窗口。

在这种情况下,“完全连接的层”实际上充当1x1卷积。


0

如果您知道免费午餐定理(Wolpert和Macready),那么您不会对一个分类器如此迷恋,并问为什么它不是最好的。NFL定理从本质上说:“在所有成本函数的范围内,没有一个最佳分类器。” 其次,分类器的性能始终“取决于数据”。

丑小鸭定理(渡边)本质上指出,“在所有的功能集的宇宙中,有一种功能没有最好的一套。”

p>ñ

鉴于上述情况,以及Occam的Razor一样,没有任何事情比数据和成本函数更胜一筹。

我一直认为,CNN本身并不是可以评估多样性(kappa与错误)的分类器集合。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.