Questions tagged «comparison»



8
从R转换为Python是否值得?[关闭]
我刚刚完成了为期1年的数据科学硕士课程,在那里我们接受了R的教学。我发现Python更加流行,并且在AI领域拥有更大的社区。 对于我这种位置的人来说,切换到Python是否值得?如果可以,为什么?python是否具有R中没有的任何改变游戏规则的功能,或者仅仅是社区问题?
31 python  comparison  r 



1
Q学习和策略梯度方法之间有什么关系?
据我了解,Q学习和策略梯度(PG)是用于解决RL问题的两种主要方法。Q学习旨在预测在某种状态下采取的某种行动的回报,而政策梯度则直接预测了行动本身。 但是,这两种方法对我来说似乎都是相同的,即,预测一个动作的最大回报(Q学习)等同于预测直接采取该动作的概率(PG)。损失向后传播的方式是否有所不同?

1
玻尔兹曼机器可以存储比Hopfield网络更多的模式吗?
这是来自AI的封闭测试版,该问题由47号用户发布。所有信息都归功于他们。 根据维基百科, Boltzmann机器可以视为Hopfield网络的随机,生成对应物。 两者都是循环神经网络,可以训练它们学习位模式。然后,当呈现部分模式时,网络将检索完整的完整模式。 Hopfield网络已被证明具有0.138的容量(例如,每1000个节点可以从存储中调用大约138位向量,Hertz 1991)。 由于玻尔兹曼机是随机的,我的理解是,当一个存储的模式与另一个存储的模式之间的能量差相似时,它不一定总是显示相同的模式。但是由于这种随机性,也许它可以存储更密集的模式,但不能保证您始终会获得能量差最接近的模式。这是真的吗?还是Hopfield网络能够存储更多模式?




1
为什么AlphaGo Zero的合并神经网络比两个独立的神经网络效率更高?
与以前的版本相比,AlphaGo Zero包含了多项改进。在这份备忘单中可以看到Alpha Go Zero的建筑细节。 这些改进之一是使用单个神经网络,该神经网络可以同时计算移动概率和状态值,而旧版本则使用两个单独的神经网络。根据论文表明,合并的神经网络效率更高: 它使用一个神经网络,而不是两个。早期版本的AlphaGo使用“策略网络”来选择下一个动作,并使用“价值网络”来从每个位置预测游戏的获胜者。这些都结合在AlphaGo Zero中,可以对其进行更有效的培训和评估。 对我来说,这似乎很不直观,因为从软件设计的角度来看,这违反了关注点原则上的分离。这就是为什么我想知道为什么合并被证明是有益的。 这种技术-将不同的任务合并到单个神经网络中以提高效率-是否可以总体上应用于其他神经网络,还是需要某些条件才能起作用?

3
谁是第一个认识到类似人类的一般智力和特定领域的智力之间区别的人?
在1950年代,人们普遍相信“人工智能”将迅速变得具有自我意识和智能能力,足以与人下棋。许多人建议使用10年的时间范围(请参阅Olazaran的“感知器争论的官方历史”,或者可以说2001年:《太空漫游》)。 什么时候能弄清楚设计象棋这样的游戏的程序所导致的软件设计仅适用于像为其编程的游戏这样的游戏?谁是第一个认识到类似人类的一般智力和特定领域的智力之间区别的人?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.