Questions tagged «gaming»

1
“蒙特卡洛搜索”如何工作?
我在有关Alpha Go的Reddit帖子中听说过这个概念。我试图遍历本文和文章,但是无法真正理解算法。 因此,有人可以对蒙特卡洛搜索算法如何工作以及如何在构建具有游戏性的AI机器人中使用它进行简单易懂的解释吗?

6
是否将穷举搜索方法视为AI?
有些程序对解决方案进行详尽搜索,而另一些程序则对相似答案进行启发式搜索。例如,在国际象棋中,对最佳下一步操作的搜索本质上趋于穷举,而在国际象棋中,由于更大的搜索空间,对最佳下一步操作的搜索本质上往往更具启发性。 蛮力搜索穷人的技术是否被认为是AI,还是一般要求先将启发式算法用于AI?如果是这样,下象棋的计算机是否击败了人类专业人员,这被视为有意义的里程碑?

1
蒙特卡罗树搜索:可以轻松找到哪种移动方式,哪些会带来麻烦?
我想从一个让我思考MCTS的性能如何的场景开始:假设有一个动作尚未添加到搜索树中。某些层/动作太深了。但是,如果我们玩这个招,那么游戏基本上就赢了。但是,我们还假设在给定的游戏状态下可以采取的所有举动都是非常非常糟糕的。为了争辩,我们假设有1000种可能的动作,其中只有一种是好的(但非常好),而其余的则很不好。不会MCTS没有认识到这一点,并没有朝着这个方向发展搜索树,并且还对该子树进行非常糟糕的评价?我知道MCTS最终会收敛到minimax(如果有足够的内存,最终它将建立整个树)。然后它应该知道即使有很多坏的可能性,此举也是好的。但是我想实际上这不是人们可以依靠的。也许有人可以告诉我这是否是我的正确评估。 除了这种特殊情况外,我还想知道是否还有其他这样的情况,MCTS的表现会很差(或非常好)。

4
教一个神经网络玩纸牌游戏
我目前正在编写一个玩纸牌游戏的引擎,因为此特定游戏还没有引擎。 我希望以后能够将神经网络引入游戏中,并让它学会玩游戏。 我正在以对AI播放器有用的方式编写引擎。有选择点,并在这些点上显示有效选项的列表。随机选择将能够玩游戏(尽管效果不佳)。 我已经学习了很多有关神经网络(主要是NEAT和HyperNEAT)的知识,甚至建立了自己的实现。我仍然不确定如何最好地构建可以考虑这些类型游戏之一中所有变量的AI。有没有通用的方法?我知道Keldon为RftG编写了很好的AI,它具有相当高的复杂性,我不确定他如何设法建立这样的AI。 有什么建议吗?可行吗 有什么好的例子吗?输入如何映射? 编辑:我在网上看了一下,了解了神经网络如何工作,通常它们与图像识别或操纵简单代理有关。我不确定是否或如何将其应用于具有复杂协同作用的卡片进行选择。朝我应该研究的方向发展将不胜感激。 关于游戏:游戏类似于《魔术:聚会》。有一个具有健康和能力的指挥官。玩家拥有一个能量池,可用来将小兵和咒语放在棋盘上。仆从具有生命值,攻击值,费用等。纸牌也具有能力,这些能力不易枚举。纸牌是从手中开始的,新的纸牌是从牌组中抽出的。这些都是神经网络考虑的方面。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.