Questions tagged «neural-networks»

对于有关人工网络的问题,例如MLP,CNN,RNN,LSTM和GRU网络,其变体或任何其他可被视为神经网络的AI系统组件,部分原因是它们受到了生物神经网络的启发。

8
科学家是否知道人工神经网络内部正在发生什么?
科学家或研究专家是否从厨房知道复杂的“深度”神经网络中发生的情况,该神经网络会立即触发至少数百万个连接?他们是否了解其背后的过程(例如,内部正在发生什么以及它如何正常工作),还是一个争论的话题? 例如,这项研究说: 但是,对于为什么它们表现如此出色或如何进行改进尚无明确的了解。 那么这是否意味着科学家实际上不知道复杂的卷积网络模型如何工作?

3
神经网络如何处理变化的输入大小?
据我所知,神经网络在输入层中具有固定数量的神经元。 如果在类似NLP的上下文中使用神经网络,则大小不同的句子或文本块将被馈送到网络。如何将变化的输入大小与网络输入层的固定大小相协调?换句话说,如何使这种网络具有足够的灵活性以处理可能从一个单词到多页文本的输入? 如果我对输入神经元数量固定的假设是错误的,并且将新的输入神经元添加到网络中或从网络中删除以匹配输入大小,那么我将看不到如何训练它们。 我以NLP为例,但是许多问题本质上是不可预测的输入大小。我对处理此问题的一般方法感兴趣。 对于图像,很明显,您可以将上/下采样到固定大小,但是对于文本,这似乎是不可能的方法,因为添加/删除文本会更改原始输入的含义。

4
神经网络容易发生灾难性的遗忘吗?
想象一下,您向神经网络展示了100张狮子的图片,并标有“危险”标签,因此得知狮子是危险的。 现在想象一下,以前您已经向它展示了数百万张狮子的图像,或者将其标记为“危险”和“不危险”,这样狮子发生危险的可能性为50%。 但是,这最后100次使神经网络对将狮子视为“危险”非常积极,因此忽略了最后一百万堂课。 因此,神经网络似乎存在一个缺陷,即基于最近的证据,它们可能会很快改变主意。特别是如果以前的证据在中间。 是否存在一个神经网络模型来跟踪已看到的证据数量?(或者这等于让学习率降低,其中是试验次数?)1/T1/T1/TTTT




9
人工智能容易受到黑客攻击吗?
论文《对抗设置中的深度学习的局限性》探讨了攻击者如何破坏神经网络,攻击者可以操纵神经网络训练的数据集。作者尝试了一种旨在读取手写数字的神经网络,通过使训练了该神经网络的手写数字样本失真来破坏其阅读能力。 我担心恶意参与者可能会尝试入侵AI。例如 愚弄自动驾驶汽车以误解停车标志与速度限制。 绕过面部识别,例如用于ATM的面部识别。 绕过垃圾邮件过滤器。 电影评论,酒店等的愚蠢情绪分析 绕过异常检测引擎。 伪造语音命令。 对基于机器学习的医学预测进行了错误分类。 什么样的对抗作用可能会破坏世界?我们如何预防呢?


5
可以训练神经网络来求解数学方程吗?
我知道神经网络可能不是设计成这样做的,但是假设地问,是否有可能训练深度神经网络(或类似的神经网络)来解决数学方程式? 因此,给定3个输入:第一个数字,用数字(1- +,2- -,3- /,4- *等)表示的操作员符号以及第二个数字,然后在训练网络后,应该给我有效的结果。 范例1(2+2): 输入1:2; 输入2: 1(+); 输入3 2; 预期产量:4 输入1:10; 输入2: 2(-); 输入3 10; 预期产量:0 输入1:5; 输入2: 4(*); 输入3 5; 预期产量:25 所以 以上内容可以扩展到更复杂的示例。 那可能吗?如果是这样,什么样的网络可以学习/实现?



4
神经网络可以检测素数吗?
我不是在寻找找到素数的有效方法(这当然是一个已解决的问题)。这更多是一个“假设”问题。 因此,从理论上讲:您能否训练神经网络来预测给定数字n是合成还是素数?这样的网络将如何布局?

4
可以训练深层网络证明定理吗?
假设我们在一阶谓词演算中有大量证明。假设我们在该领域的数学形式中也有公理,推论和定理。 以每个被证明的命题和围绕该特定命题的现有理论为例,作为训练集中的一个例子,并将该命题的已知良好证明作为相关标签。现在,考虑专门为训练该示例集而设计的深层人工网络,并且正确设置超参数也可以这样做。 是否有可能以一种新的命题的表达和围绕它的现有理论以一阶谓词演算形式出现在输入端的方式训练深层的人工网络,从而在输出端产生证明? (当然,这些证明应随后手动检查。) 如果产生的良好证明的比例足够高,是否有可能创建一种遗传算法,向经过训练的深度网络提出建议,从而创建证明? 那可能吗? 是否可以使用这种深度网络设计来解决Collat​​z猜想或Riemann猜想,或者至少以数学家更能够得出合法证明的方式重新排列模式?

4
什么是动态计算图?
通过TensorFlow Fold的PyTorch和TensorFlow之类的框架支持动态计算图,并受到了数据科学家的关注。 但是,似乎缺少帮助理解动态计算图的资源。 动态计算图的优点似乎包括适应输入数据中不同数量的能力。似乎可以根据训练期间的每个输入集实例自动选择层数,每层神经元数,激活功能和其他NN参数。这是准确的描述吗? 动态模型比静态模型有什么优势?这就是为什么DCG备受关注吗?总而言之,DCG是什么,它们的利弊是什么?


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.