Answers:
卷积层的输出表示数据中的高级特征。虽然可以将输出平坦化并连接到输出层,但是添加完全连接的层是学习这些功能的非线性组合的(通常)便宜的方法。
本质上,卷积层提供了有意义的,低维的并且多少不变的特征空间,而全连接层正在学习该空间中的(可能是非线性的)函数。
注意:从FC层转换为Conv层很简单。如将这些顶级FC层转化率的层可以是有帮助的这个页面描述。
我发现Anil-Sharma在Quora上的回答 很有帮助。
我们可以将整个网络(用于分类)分为两部分:
特征提取:在传统的分类算法(如SVM)中,我们通常从数据中提取特征以使分类工作。卷积层用于特征提取的相同目的。CNN可以更好地表示数据,因此我们不需要进行特征工程。
分类:特征提取后,我们需要将数据分类为各种类别,这可以使用完全连接(FC)的神经网络来完成。代替完全连接的层,我们还可以使用传统的分类器,例如SVM。但是我们通常最终会添加FC层以使模型端到端可训练。