Questions tagged «artificial-intelligence»


5
非策略学习和基于策略学习之间有什么区别?
人工智能网站对非政策性学习和政策性学习的定义如下: “非策略学习者独立于代理的行为而学习最优策略的价值。Q学习是非策略学习者。非策略学习者学习由代理执行的策略的价值,包括探索步骤。” 我想请您澄清一下,因为它们似乎对我没有任何影响。两种定义似乎都相同。我真正了解的是无模型和基于模型的学习,我不知道他们是否与所讨论的问题有任何关系。 如何独立于代理的行为来学习最佳策略?代理执行动作时不是学习策略吗?

4
我们可以从人工神经网络中学到什么关于人脑?
我知道我的问题/标题不是很具体,所以我将尝试澄清一下: 人工神经网络的设计相对严格。当然,通常,它们会受到生物学的影响,并尝试建立真实神经网络的数学模型,但是我们对真实神经网络的理解不足以建立精确的模型。因此,我们无法构思出精确的模型或“接近”真实神经网络的任何事物。 据我所知,所有人工神经网络都与真实神经网络相距甚远。标准,经典的全连接MLP在生物学中不存在。递归神经网络缺乏实际的神经可塑性,RNN的每个神经元都具有相同的“反馈结构”,而真实的神经元则保存并共享它们的信息而不是单独地。卷积神经网络是有效且流行的,但是(例如)人脑中的图像处理仅由几个卷积层组成,而现代解决方案(如GoogLeNet)已经使用了数十个卷积层……尽管它们为计算机产生了很好的结果,它们甚至不接近人类的表现。尤其是当我们想到“每层性能”时,与真实的神经网络相比,我们需要大量的层并减少数据。 此外,据我所知,与真实神经网络的巨大适应性相比,即使是模块化的,自扩展/自重构的人工神经网络也相当“固定和静态”。生物神经元通常具有成千上万的树突,将神经元连接到各种各样的不同区域和其他神经元。人工神经网络更加“直接”。 那么,我们能从人工神经网络学到关于人脑/真实神经网络的任何信息吗?还是只是尝试创建一种性能要比经典的静态算法更好的软件(甚至在此类算法失败的地方做些事情)? 有人可以提供(最好是科学的)有关此主题的资源吗? 编辑:高度赞赏更多答案(:

4
专家有害吗?
我正在阅读“国际象棋在人工智能研究中的作用”(pdf),有趣的是,它说: 经验表明,国际象棋专家的意见虽然普遍有用,但不能完全信任。 深入思考的评估功能就是一个很好的例子。有能力的国际象棋专家进行的几次更改均未带来明显的改进,有时甚至会对机器的性能造成负面影响。 在这里,人类专家及其专业知识向该计划介绍了自己的偏见。解决此问题的一种方法是限制程序中允许的专家输入的类型和数量。在另一台几乎没有“知识”的机器上。 在现代研究和实践中这有多真实? 这是一个大问题,还是仅仅是国际象棋游戏的一个特定问题?


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.