Questions tagged «artificial-intelligence»

有关在动态环境中起作用并在无需用户控制的情况下朝某个目标做出决策的代理程序的设计和属性的问题。


2
什么是最小约束值?
在约束满足问题中,试探法可用于提高bactracking求解器的性能。简单回溯求解器的三种常见启发式方法是: 最小剩余值(此变量仍然有多少个有效值) 度启发式(此变量影响多少其他变量) 最小约束值(什么值将为其他变量留下最多其他值) 前两个非常明显并且易于实现。首先选择在其域中剩余值最少的变量,如果存在联系,请选择影响其他变量最多的变量。这样,如果求解器中的父级步骤选择了错误的分配,则如果选择的变量变量剩余的值最少,而影响其他事情最多的话,您可能会更快地发现并节省时间。 这些很简单,定义明确,易于实现。 在我所看到的任何地方,最小约束值都没有明确定义。人工智能:一种现代方法(罗素和诺维格)说: 它更喜欢排除约束图中相邻变量的最少选择的值。 搜索“最小约束值”仅基于此教科书显示了许多大学幻灯片,没有进一步的算法信息。 为此启发式给出的唯一示例是一种情况,其中一个值选择消除了相邻变量的所有选择,而另一个则没有。该示例的问题在于,这是一个小问题,当检查潜在分配与问题约束的一致性时,将立即消除这种情况。因此,在我能找到的所有示例中,最小约束值启发式方法实际上并没有以任何方式使求解器性能受益,除了添加冗余检查带来的较小负面影响外。 我唯一想到的另一件事是测试每个变量的相邻变量的可能赋值,并计算该变量的每个可能赋值所存在的邻居的可能赋值的数量,然后对该变量的值进行排序如果选择了该值,则基于可用的邻居分配数。但是,我看不到如何对随机顺序进行改进,因为这需要测试大量变量组合并基于计数结果进行排序。 谁能提供对最小约束值的更有用的描述,并解释该最小约束值的版本将如何实际产生改进?

1
折现因子对强化学习的意义
在阅读了Google在Atari游戏上的深刻成就之后,我试图了解q学习和q网络,但是我有点困惑。折扣因素的概念引起了混乱。我所了解的简短摘要。深度卷积神经网络用于估计动作的最佳期望值。网络必须最小化损失函数 ,其中为 其中,是累积得分值,Li=Es,a,r[(Es′[y|s,a]−Q(s,a;θi))2]Li=Es,a,r[(Es′[y|s,a]−Q(s,a;θi))2] L_i=\mathbb{E}_{s,a,r}\left[(\mathbb{E}_{s'}\left[y|s,a\right]-Q(s,a;\theta_i))^2\right] Es′[y|s,a]Es′[y|s,a]\mathbb{E}_{s'}\left[y|s,a\right]Q [R 小号,一个小号“,一个”吨吨' θ - 我 γ 我γ θE[r+γmaxa′Q(s′,a′;θ−i)∣∣s,a]E[r+γmaxa′Q(s′,a′;θi−)|s,a] \mathbb{E}\left[r+\gamma max_{a'} Q(s',a';\theta^-_i)\right|s,a] QQQrrr是动作选择的得分值。和分别是在时间的状态和动作以及在时间处的状态和动作。该是网络在上一迭代的权重。该是考虑到分值的时间差折算因子。在标是颞步骤。这里的问题是要理解为什么不依赖于。s,as,as,as′,a′s′,a′s',a'tttt′t′t'θ−iθi−\theta^-_iγγ\gammaiiiγγ\gammaθθ\theta 从数学观点来看,是折扣因子,表示从状态到达状态的可能性。小号'小号γγ\gammas′s′s'sss 我猜想网络实际上学会了根据的真实值重新缩放,那么为什么不让?γ γ = 1QQQγγ\gammaγ=1γ=1\gamma=1


2
最佳近视迷宫求解器
我当时在鬼混Google Blocky的Maze演示,并想起了一条旧规则,那就是如果您想解决迷宫问题,只需左手紧握墙壁即可。这适用于任何简单连接的迷宫,并且可以通过有限的传感器实现。 让我们的机器人由具有以下动作和可观察值的传感器来表示: 动作:前进(),左转(),右转()← →↑↑\uparrow←←\leftarrow→→\rightarrow 可观察到的:前方墙(),无前方墙()⊤⊥⊥\bot⊤⊤\top 然后,我们可以将左侧迷宫求解器构建为(请原谅我的懒惰绘图): 在看到可观察物的地方,将使我们在执行与该边缘关联的动作时跟随状态的适当边缘。这个自动机将解决所有简单的迷宫,尽管它可能需要花费很多时间才能走到尽头。如果满足以下条件,我们称另一个自动机优于:一BBB AAA BBB仅对有限数量的迷宫采取严格的更多步骤,并且 BBB在无限数量的迷宫上严格采取更少的步骤(平均;对于概率变体)。 我的两个问题: 有没有比上面绘制的更好的有限自动机?如果我们允许概率传感器怎么办? 是否有一个有限的自动机来解决不一定简单连接的迷宫?

3
内核化技巧,用于神经网络
我一直在学习神经网络和SVM。我阅读的教程强调了内核化对于SVM的重要性。没有内核功能,SVM只是线性分类器。通过内核化,SVM还可以合并非线性功能,这使它们成为更强大的分类器。 在我看来,也可以将内核化应用于神经网络,但是我见过的神经网络教程都没有提到这一点。人们通常在神经网络中使用内核技巧吗?我认为一定有人尝试过它,看看它是否有很大的不同。内核化对神经网络的帮助与对SVM的帮助一样吗?为什么或者为什么不? (我可以想像几种将核技巧整合到神经网络中的方法。一种方法是使用合适的核函数将输入(的向量)预处理为高维输入,R m中的向量对m ≥ ñ。对于多层神经网络,另一种方法是在神经网络的每个级别应用内核函数。)RnRn\mathbb{R}^nRmRm\mathbb{R}^{m}m≥nm≥nm\ge n

1
为什么用随机数初始化神经网络的权重?
为什么神经网络的初始权重被初始化为随机数?我在某处读过,这样做是为了“打破对称性”,这使神经网络学习得更快。如何打破对称性使其学习更快? 将权重初始化为0会不是一个更好的主意?这样,权重就能更快地找到其值(正负)。 除了希望权重在初始化时会接近最佳值之外,还有其他一些潜在的基本哲学吗?

2
这些CS领域最有趣的数学是什么?
对于我的CS学位,我拥有大部分的“标准”数学背景: 微积分:微分,积分,复数 代数:几乎所有概念,直到领域。 数论:XGCD和相关资料,主要用于加密。 线性代数:直到特征向量/特征值 统计:概率,测试 逻辑:命题,谓语,模态,混合。 我在CS领域的主要兴趣是安全性,密码学和人工智能。我想知道是否有关于数学主题的建议,这些领域可能会引起人们的兴趣,特别是对于人工智能,因为这不是我目前的主要研究领域。

1
可以用map-reduce运算来表达人工神经网络算法吗?
可以用map-reduce运算来表达人工神经网络算法吗?我还更一般地对应用于ANN的并行化方法及其在云计算中的应用感兴趣。 我认为一种方法将涉及在每个节点上运行完整的ANN并以某种方式集成结果以便将网格像单个实体一样对待(就输入/输出和机器学习特性而言)。即使在这种情况下,我也很好奇这样的整合策略可能会是什么样子。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.