Answers:
这不是那么简单。首先,从某种意义上说,SVM是一种神经网络(您可以通过反向传播学习SVM解决方案)。请参阅什么是人工神经网络?。其次,您无法事先知道哪种模型会更好,但是事情是通过完全神经形态的架构,您可以端到端地学习权重,而将SVM或RF附加到CNN的最后一个隐藏层激活是只是一个临时程序。如果没有测试,它可能会更好,但可能不会。
重要的部分是完全卷积的体系结构能够进行表示学习,这出于多种原因很有用。一次,它可能会完全减少或消除您的问题中的功能设计。
关于FC层,它们在数学上等效于1x1卷积层。请参阅Yann Lecun的帖子,我在下面抄写:
在卷积网中,不存在“全连接层”之类的东西。只有带有1x1卷积内核和完整连接表的卷积层。
ConvNets不需要固定大小的输入,这是一个非常罕见的事实。您可以在碰巧产生单个输出矢量(没有空间范围)的输入上训练它们,然后将它们应用于更大的图像。然后,您将获得输出矢量的空间图,而不是单个输出矢量。每个向量都会在输入的不同位置看到输入窗口。
在这种情况下,“完全连接的层”实际上充当1x1卷积。