卷积层与普通的卷积网络有何不同?


9

我目前正在对重建这一结果。在本文中,他们描述了一种使用CNN进行特征提取的方法,并具有Dnn-hmm的声学模型,并使用RBM进行了预训练。

第三节A小节陈述了可以表示输入数据的不同方式。我决定垂直堆叠静态,增量和增量增量的频谱图。

因此: 在此处输入图片说明

然后,本文描述了网络的运行方式。他们声明他们使用了卷积网络,但是关于网络的结构却一无所知。此外,网络是否始终被称为卷积层?我敢肯定,与普通的网络卷积神经网络(cnn)相比,我看不出任何区别。

该文件就差异指出了这一点:

(摘自第三节B小节)

但是,卷积层在两个重要方面与标准的完全连接的隐藏层不同。首先,每个卷积单元仅从输入的局部区域接收输入。这意味着每个单元代表输入局部区域的某些特征。其次,卷积层的单元本身可以组织为多个特征图,其中同一特征图中的所有单元共享相同的权重,但从较低层的不同位置接收输入

我想知道的另一件事是,该论文是否实际陈述了馈送dnn-hmm声学模型所需的输出参数。我似乎无法解码过滤器的数量,过滤器的大小..网络的一般细节?


我对此也很感兴趣。猜猜我可以开始赏金以加快流程。
Lamda

Answers:


4

似乎卷积层与普通的卷积层完全相同。从他们的论文中,他们认为术语“ CNN层”通常是指卷积层,然后是池化层。为了减少混乱,他们将卷积部分命名为“卷积层”,将合并部分命名为“池层”:

在CNN术语中,图2中连续的一对卷积和池化层通常被称为一个CNN“层”。因此,深层的CNN依次包含两个或两个以上的对。为避免混淆,我们将卷积层和池化层分别称为卷积层和池化层。

具有讽刺意味的是,这加剧了混乱,导致了这一职位。当时我想在池化层之前连续有多个卷积层并不常见,但是我们在现代体系结构中经常看到这种情况。

回答有关网络结构的其他问题;它们在“实验”部分(第VB节)中说明了所用网络的结构。为了希望避免混淆,我已经替换为“层”字“层”:

在这些实验中,我们在顶部使用了一个卷积[层],一个池化[层]和两个完全连接的隐藏层。完全连接的层各有1000个单元。卷积和合并参数为:合并大小为6,移位大小为2,过滤器大小为8,FWS的150个特征图和LWS的每个频带80个特征图。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.