Questions tagged «neural-networks»

对于有关人工网络的问题,例如MLP,CNN,RNN,LSTM和GRU网络,其变体或任何其他可被视为神经网络的AI系统组件,部分原因是它们受到了生物神经网络的启发。

1
井字游戏等游戏中的神经网络与遗传算法?
目前,我正在做一个有关创建AI来玩Gomoku游戏的项目(这就像井字游戏,但在15 * 15的板上玩,要连续赢5个)。我已经使用Q学习成功地实现了一个完美的井字游戏AI,并将游戏状态/动作存储在表格中,但是对于15 * 15的游戏板,可能的游戏状态变得太大了,因此实施此项目也是如此。 我的问题是,我应该使用神经网络还是遗传算法解决这个问题?更具体地说,我应该如何实现呢?

3
当前的消费者级GPU可以训练多少大小的神经网络?(1060,1070,1080)
是否有可能凭经验估算出在普通消费级GPU上可训练的神经网络的大小?例如: 的步态(加固)的出现纸列车使用神经元的tanh激活的网络。它们具有3层NN,其中300,200,100单位用于Planar Walker。但是他们没有报告硬件和时间... 但是可以发展一条经验法则吗?同样仅基于当前的经验结果,例如: 使用S型激活的X单位可以在1060上每小时运行Y个学习迭代。 或使用激活功能a代替b会导致性能下降。 如果学生/研究人员/好奇心的人打算购买GPU来与这些网络一起玩耍,那么您如何决定获得的结果呢?1060显然是入门级预算选项,但是如何评估仅获得一台笨拙的上网本而不是构建高功率台式机并将节省的资金用于按需云基础架构,是否更明智。 问题的动机:我刚购买了1060,并且(聪明,以后问这个问题吧)想知道我是否应该保留$并创建一个Google Cloud帐户。而且,如果我可以在GPU上运行我的硕士论文模拟。

2
神经网络中的活动矢量是什么?
我正在阅读Hinton的新论文“胶囊之间的动态路由”,但没有抽象地理解术语“活动向量”。 胶囊是一组神经元,其活动矢量代表特定类型的实体(例如对象或对象部分)的实例化参数。我们使用活动矢量的长度来表示实体存在的概率,并使用其方向来表示实例化参数。一级的活动胶囊通过转换矩阵对高层胶囊的实例化参数进行预测。当多个预测结果一致时,更高级别的胶囊就会生效。我们表明,经过判别训练的多层胶囊系统在MNIST上达到了最先进的性能,并且在识别高度重叠的数字方面比卷积网络要好得多。为了获得这些结果,我们使用了一种按协议迭代路由的机制: https://arxiv.org/pdf/1710.09829.pdf 我认为向量就像是您通过网络运行的数据数组。 我开始学习安德鲁·伍(Andrew Ng)的深度学习课程,但它是全新的,术语令我头疼。

2
在神经网络中,均方误差是否总是凸出的?
我提到的多种资源都提到MSE很棒,因为它是凸的。但是我不知道怎么做,尤其是在神经网络的情况下。 假设我们有以下内容: XXX:训练数据集 YYY:目标 ΘΘ\Theta:模型(具有非线性的神经网络模型)的参数集fΘfΘf_\Theta 然后: MSE(Θ)=(fΘ(X)−Y)2MSE⁡(Θ)=(fΘ(X)−Y)2\operatorname{MSE}(\Theta) = (f_\Theta(X) - Y)^2 为什么这个损失函数总是凸的?这是否取决于?FΘ(X)fΘ(X)f_\Theta(X)


6
用于家庭AI学习/实验的开源工具?
我想对神经网络进化(NEAT)进行一些实验。早在90年代,我就用C ++编写了一些GA和神经网络代码,只是为了玩弄而已,但事实证明,DIY方法非常耗费人力,最终我放弃了它。 从那时起,事情发生了很大的变化,并且有很多非常不错的开源库和工具可以满足人们的几乎任何兴趣。我已经用Google搜索了不同的开源库(例如DEAP),但是我可以使用一些帮助来选择一个合适的库... 我花了很多时间编写代码来可视化正在发生的事情(神经网络状态,人口适应度)或最终结果(图表等)。也许这必须由一个单独的开源库来实现,但是可视化支持将使我能够在问题/解决方案上花费更多的时间,而在实现细节上花费更少的时间。 我知道C / C ++,Java,C#,Python,Javascript和其他一些语言。在高级语言和家用硬件上的良好性能之间进行很好的权衡将是一个不错的选择。 有经验的人可以建议一个好的开源库或工具集吗?

1
对于DNN的实际使用,白噪声有多少问题?
我读到深度神经网络可以相对容易地被愚弄(链接),从而使人们对完全(或至少大部分)不在置信对象范围内的合成/人工图像的识别具有很高的信心。 就我个人而言,我真的没有看到DNN对那些合成/人造图像具有高置信度的大问题,但是我认为对白噪声(链接)具有高置信度可能是一个问题,因为这是相机可能看到的一种真正的自然现象。在现实世界。 对于DNN的实际使用,白噪声有多少问题?可以通过某种方式防止从普通噪声中检测到这种误报吗?

1
如何在神经网络中转换输入并提取有用的输出?
因此,自从我碰到Adam Geitgey关于机器学习的博客以来,我就一直试图理解神经网络。我已经读了尽可能多的关于该主题的文章(我能理解),并且相信我理解所有广泛的概念和一些工作原理(尽管数学上很弱),神经元,突触,权重,成本函数,反向传播但是,我还无法弄清楚如何将现实世界中的问题转化为神经网络解决方案。 典型的例子,亚当Geitgey给出作为一个例子使用,其中给定的包含数据集的房子的价格预测系统的卧室号,平方。脚,邻居和销售价格,你可以训练神经网络,以能够预测的房子的价格。但是,他没有在代码中实际实现可能的解决方案。举例来说,他得到的最接近的是一个基本函数,该函数演示了如何实现权重: def estimate_house_sales_price(num_of_bedrooms, sqft, neighborhood): price = 0 # a little pinch of this price += num_of_bedrooms * 1.0 # and a big pinch of that price += sqft * 1.0 # maybe a handful of this price += neighborhood * 1.0 # and finally, just a little …

2
DeepMind的DQN Atari游戏同时学习吗?
DeepMind指出,他们的深度Q网络(DQN)在学习玩49场Atari游戏时能够不断适应其行为。 在学习了具有相同神经网络的所有游戏之后,座席是否能够同时以“超人”水平玩所有游戏(无论何时随机将其中一个游戏呈现给游戏者),或者一次只能只玩一个游戏,因为切换需要重新学习吗?


2
人脑与神经网络的功率效率
如果我们用于计算的总能量预算等于人脑的能量预算(12.6瓦),那么我们现在可以运行多少个大型人工神经网络(使用完整的火车-反向传播周期或仅评估网络输出)? 假设每秒一个周期,这似乎与生物神经元的放电速度大致相符。

4
使用ASIC加速AI的工作原理是什么?
我们可以在Wikipedia页面上读到Google为机器学习构建了定制的ASIC芯片,并为TensorFlow量身定制了该芯片,这有助于加速AI。 由于ASIC芯片是专门为一种特定用途而定制的,因此无法更改其电路,因此必须调用某些固定算法。 那么,如果无法更改其算法,使用ASIC芯片的AI加速将如何工作呢?它的哪一部分恰好在加速?



2
自动编码器可以用于监督学习吗?
可以在不增加输出层的情况下将自动编码器用于监督学习吗?我们是否可以简单地将其连接以输入-输出向量进行训练,并在进行推理时从输入部分重构输出部分?在推理过程中,输出部分将被视为缺失值,并将进行一些估算。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.