Questions tagged «deep-learning»

对于与深度学习有关的问题,它指的是基于具有多个隐藏层的人工神经网络(ANN)的机器学习方法的子集。因此,形容词Deep指的是ANN的层数。Rina Dechter于1986年在论文“在约束满足问题中学习时学习”中显然引入了深度学习(尽管不是在机器学习或ANN的上下文中)。

8
科学家是否知道人工神经网络内部正在发生什么?
科学家或研究专家是否从厨房知道复杂的“深度”神经网络中发生的情况,该神经网络会立即触发至少数百万个连接?他们是否了解其背后的过程(例如,内部正在发生什么以及它如何正常工作),还是一个争论的话题? 例如,这项研究说: 但是,对于为什么它们表现如此出色或如何进行改进尚无明确的了解。 那么这是否意味着科学家实际上不知道复杂的卷积网络模型如何工作?

3
神经网络如何处理变化的输入大小?
据我所知,神经网络在输入层中具有固定数量的神经元。 如果在类似NLP的上下文中使用神经网络,则大小不同的句子或文本块将被馈送到网络。如何将变化的输入大小与网络输入层的固定大小相协调?换句话说,如何使这种网络具有足够的灵活性以处理可能从一个单词到多页文本的输入? 如果我对输入神经元数量固定的假设是错误的,并且将新的输入神经元添加到网络中或从网络中删除以匹配输入大小,那么我将看不到如何训练它们。 我以NLP为例,但是许多问题本质上是不可预测的输入大小。我对处理此问题的一般方法感兴趣。 对于图像,很明显,您可以将上/下采样到固定大小,但是对于文本,这似乎是不可能的方法,因为添加/删除文本会更改原始输入的含义。

21
数字计算机可以理解无限吗?
作为人类,我们可以思考无限。原则上,如果我们有足够的资源(时间等),我们就可以无数次地计数(包括抽象的,如数字或实数)。 例如,至少,我们可以考虑整数。我们原则上可以认为并“理解”屏幕上显示的许多数字。如今,我们正在尝试设计至少具有人类能力的人工智能。但是,我陷入无限。我试图找到一种方法,可以教一个模型(深度与否)来理解无限。我用功能性方法定义“理解”,例如,如果一台计算机可以区分10个不同的数字或事物,则意味着它确实以某种方式理解了这些不同的事物。这是“理解”的基本简单方法。 正如我之前提到的,人类理解无穷大是因为它们在原理上至少能够计算无穷整数。从这个角度来看,如果我想创建一个模型,那么该模型实际上是一个抽象意义上的函数,则该模型必须区分出无数个数字。由于计算机是数字机器,对这种无穷函数进行建模的能力有限,因此我如何创建可以对无数个整数进行微分的模型? 例如,我们可以采用深度学习视觉模型来识别卡片上的数字。该模型必须为每个不同的卡分配一个数字,以区分每个整数。由于存在无限数量的整数,因此模型如何在数字计算机上为每个整数(如人类)分配不同的数字?如果它无法区分无限事物,那么它如何理解无限? 如果我考虑实数,问题将变得更加棘手。 我想念的是什么?是否有针对该主题的资源?



8
在CNN中,每个新滤波器对每个输入通道的权重是否不同,还是在输入通道中使用的每个滤波器的权重相同?
我的理解是,卷积神经网络的卷积层具有四个维度:input_channels,filter_height,filter_width,number_of_filters。此外,据我了解,每个新过滤器都只是在所有input_channels(或上一层的特征/激活图)上盘旋。 但是,CS231下图显示了每个滤波器(红色)应用于单个通道,而不是跨通道使用相同的滤波器。这似乎表明每个通道都有一个单独的滤镜(在这种情况下,我假设它们是输入图像的三个颜色通道,但是对所有输入通道都适用)。 这令人困惑-每个输入通道是否都有不同的唯一过滤器? 资料来源:http : //cs231n.github.io/convolutional-networks/ 上图似乎与奥雷利(O'reilly)的“深度学习基础”节选中的矛盾: “ ...过滤器不仅可以在单个要素地图上运行,而且还可以在特定图层上生成的全部要素地图上运行...因此,要素地图必须能够在多个实体上进行操作,不只是区域” ...此外,据我了解,以下这些图像表示THESAME过滤器仅在所有三个输入通道上卷积(与上面的CS231图形相反):

9
人工智能容易受到黑客攻击吗?
论文《对抗设置中的深度学习的局限性》探讨了攻击者如何破坏神经网络,攻击者可以操纵神经网络训练的数据集。作者尝试了一种旨在读取手写数字的神经网络,通过使训练了该神经网络的手写数字样本失真来破坏其阅读能力。 我担心恶意参与者可能会尝试入侵AI。例如 愚弄自动驾驶汽车以误解停车标志与速度限制。 绕过面部识别,例如用于ATM的面部识别。 绕过垃圾邮件过滤器。 电影评论,酒店等的愚蠢情绪分析 绕过异常检测引擎。 伪造语音命令。 对基于机器学习的医学预测进行了错误分类。 什么样的对抗作用可能会破坏世界?我们如何预防呢?

4
可以训练深层网络证明定理吗?
假设我们在一阶谓词演算中有大量证明。假设我们在该领域的数学形式中也有公理,推论和定理。 以每个被证明的命题和围绕该特定命题的现有理论为例,作为训练集中的一个例子,并将该命题的已知良好证明作为相关标签。现在,考虑专门为训练该示例集而设计的深层人工网络,并且正确设置超参数也可以这样做。 是否有可能以一种新的命题的表达和围绕它的现有理论以一阶谓词演算形式出现在输入端的方式训练深层的人工网络,从而在输出端产生证明? (当然,这些证明应随后手动检查。) 如果产生的良好证明的比例足够高,是否有可能创建一种遗传算法,向经过训练的深度网络提出建议,从而创建证明? 那可能吗? 是否可以使用这种深度网络设计来解决Collat​​z猜想或Riemann猜想,或者至少以数学家更能够得出合法证明的方式重新排列模式?


3
了解GAN损失函数
我正在努力理解GAN损失功能,这在理解生成对抗网络(由Daniel Seita撰写的博客文章)中提供。 在标准的交叉熵损失中,我们有一个通过S型函数进行的输出以及所得的二进制分类。 西埃塔州 因此,对于[每个]数据点x1x1个x_1及其标签,我们得到以下损失函数... H((x1,y1),D)=−y1logD(x1)−(1−y1)log(1−D(x1))H((x1,y1),D)=−y1log⁡D(x1)−(1−y1)log⁡(1−D(x1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) 这只是期望的对数,这是有道理的,但是在GAN损失函数中,我们如何在同一迭代中处理来自真实分布的数据和来自生成模型的数据呢?

4
深度学习方法的问题和替代方法?
在过去的50年中,神经网络的流行程度的上升/下降/上升已经成为AI研究的“晴雨表”。 从该网站上的问题中可以很明显地看出,人们对将深度学习(DL)应用于各种困难问题很感兴趣。 因此,我有两个问题: 从业者-您发现将DL“开箱即用”应用于问题的主要障碍是什么? 研究人员-您使用(或已开发)哪些技术可能有助于解决实际问题?它们在DL中还是在提供替代方法?

5
神经网络可以用来预测下一个伪随机数吗?
是否有可能向神经网络提供随机数生成器的输出,并期望它学习哈希(或生成器)函数,以便可以预测下一个生成的伪随机数是什么? 这样的东西已经存在了吗?如果已经对此或相关内容(与伪随机数的预测)进行了研究,那么谁能为我指出正确的资源? 目前,我正在查看该库及其相关链接。 https://github.com/Vict0rSch/deep_learning/tree/master/keras/recurrent

3
如何在CNN中处理大尺寸图像?
假设在CNN中需要使用10K大小为2400 x 2400的图像,我认为人们会使用的常规计算机是Acc。现在的问题是如何在没有下采样特权的情况下处理如此大的图像大小。 这是系统要求: Ubuntu 16.04 64位RAM 16 GB GPU 8 GB硬盘500 GB 1)是否有任何技术可以处理要训练的大图像? 2)合理使用多少批量? 3)是否可以采取任何预防措施或可以增加或减少硬件资源?



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.