Questions tagged «conv-neural-network»

卷积神经网络是一种神经网络,其中只有层之间可能存在的连接的子集存在才能创建重叠区域。它们通常用于视觉任务。




6
卷积层:填充还是不填充?
如图所示,AlexNet体系结构使用零填充: 但是,本文没有解释为什么引入这种填充。 Standford CS 231n课程教导我们使用填充来保留空间大小: 我想知道这是我们需要填充的唯一原因吗?我的意思是,如果不需要保留空间大小,是否可以去除填充物?我知道随着我们进入更深的层次,这将导致空间大小的迅速减小。但是,我可以通过删除池化层来权衡这一点。如果有人能给我一些零填充的理由,我将非常高兴。谢谢!

5
“转移学习”和“领域适应”之间有什么区别?
“转移学习”和“领域适应”之间有什么区别吗? 我不了解上下文,但是我的理解是,我们有一些数据集1并对其进行训练,之后我们又有了另一个数据集2,我们希望针对该数据集2适应我们的模型而无需从头进行重新训练,为此我们需要进行“转移学习”和“域自适应”有助于解决此问题。 根据卷积神经网络领域: “转移学习”是指“微调” [1] 在这种情况下,[2]是不受监督的,但是“域自适应”是否应始终不受监督?

4
Conv1D和Conv2D有什么区别?
我正在研究keras卷积文档,发现了两种类型的卷积Conv1D和Conv2D。我做了一些网页搜索,这就是我对Conv1D和Conv2D的了解;Conv1D用于序列,Conv2D用于图像。 我一直以为卷积神经网络仅以这种方式用于图像和可视化的CNN 图像被认为是一个大矩阵,然后滤镜将在该矩阵上滑动并计算点积。我相信keras所说的是Conv2D。如果Conv2D以这种方式工作,那么Conv1D的机制是什么,我们如何想象其机制?





3
卷积神经网络中的卷积步骤做什么?
由于它们在计算机视觉中的应用,我正在研究卷积神经网络(CNN)。我已经熟悉标准的前馈神经网络,所以我希望这里的某些人可以帮助我在理解CNN方面采取额外的步骤。我对CNN的看法如下: 在传统的前馈神经网络中,我们拥有训练数据,其中每个元素都包含一个特征向量,该特征向量在“输入层”中输入到神经网络,因此在图像识别中,我们可以将每个像素作为一个输入。这些是我们的特征向量。或者,我们可以手动创建其他(可能较小)的特征向量。 CNN的优势在于它可以生成更强大的特征向量,这些特征向量对于图像失真和位置更加不变。如下图所示(来自本教程),CNN生成特征图,然后将其输入到标准神经网络中(因此,这实际上是一个巨大的预处理步骤)。 我们获得这些“更好”特征的方法是通过交替进行卷积和子采样。我了解子采样的工作原理。对于每个特征图,只取像素的一个子集,否则我们可以对像素值求平均值。 但是我主要困惑的是卷积步骤是如何工作的。我很熟悉概率论中的卷积(两个随机变量之和的密度),但是它们在CNN中如何工作,为什么有效? 我的问题与此类似,但是特别是,我不确定为什么第一步卷积有效。

1
卷积网络中卷积滤波器数量的意义是什么?
卷积层传送的滤波器数量是多少? 这个数字如何影响架构的性能或质量?我的意思是我们应该总是选择更多数量的过滤器吗?他们有什么好处?人们如何为不同的层分配不同数量的过滤器?我的意思是看这个问题:如何确定CNN中卷积运算符的数量? 答案指定了3个卷积层,它们具有不同数量的过滤器和大小,同样在这个问题中:卷积神经网络中特征图的数量 您可以从图片中看到,第一层有28 * 28 * 6过滤器,第二层conv层有10 * 10 * 16过滤器。他们如何得出这些数字,这是通过反复试验得出的吗?提前致谢

4
卷积神经网络需要多少数据?
如果我有一个卷积神经网络(CNN),它具有大约1000000个参数,则需要多少训练数据(假设我正在进行随机梯度下降)?有什么经验法则吗? 附加说明:当我执行随机梯度下降(例如,1次迭代使用64个色块)时,在〜10000次迭代之后,分类器的精度可以达到大致的稳定值)。这是否意味着不需要太多数据?就像100k-1000k的数据一样。


1
为什么为深度学习的Adam优化器包括偏差校正项很重要?
我正在阅读有关深度学习的Adam优化器的内容,并在Begnio,Goodfellow和Courtville撰写的新书Deep Learning中遇到了以下句子: 亚当包括对一阶矩(动量项)和(无心)二阶矩的估计值的偏差校正,以说明它们在原点处的初始化。 似乎包含这些偏差校正项的主要原因是,它以某种方式消除了和的初始化偏差。米Ť= 0mt=0m_t = 0vŤ= 0vt=0v_t = 0 我不是100%知道这是什么意思,但在我看来,这很可能意味着第一和第二时刻从零开始,并以某种方式从零开始倾斜,以不公平(或有用)的方式使值接近零。 ? 虽然我很想知道这意味着什么,以及它如何损害学习。特别是,在优化方面,不偏向优化器有哪些优势? 这如何帮助训练深度学习模型? 另外,无偏见是什么意思?我很熟悉无偏标准偏差的含义,但是我不清楚在这种情况下这意味着什么。 偏差校正真的很重要吗?还是亚当优化器论文过度夸大了它? 就是这样,人们知道我已经非常努力地理解原始论文,但是我从阅读和重新阅读原始论文中受益匪浅。我认为其中一些问题可能会在此处得到解答,但我似乎无法解析答案。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.