人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答

7
称为AI的最低要求是什么?
我认为,如今,人工智能(AI)术语已被滥用。例如,人们看到某物在自动移动,并将其称为AI,即使该物在自动驾驶仪上(例如汽车或飞机),也可能有一些简单的算法在后面。 可以说什么是AI的最低一般要求是什么?

4
是Siri和Cortana AI程序吗?
Siri和Cortana的交流非常像人类。与Google现在主要在被问到一些问题(不设置警报或提醒)时为我们提供搜索结果不同,Siri和Cortana就像人一样向我们提供答案。 那么它们是否是实际的AI程序? (通过“问题”,我不是指任何与学术有关的问题或询问路线/温度,而是基于意见的问题)。


5
情商如何实施?
我已经看到情绪智力被定义为感知,控制和表达自己的情绪,以及审慎和善解人意地处理人际关系的能力。 人工智能有什么策略可以解决这个问题并为计算机开发情商? 有没有在某种程度上今天已经发生这种情况的例子? 通过图灵测试的计算机是否一定会表达情绪智力,或者会被视为明显的计算机? 也许这就是为什么通过测试的早期程序代表了年轻人,他们的情绪智力可能较低。


4
神经网络可以检测素数吗?
我不是在寻找找到素数的有效方法(这当然是一个已解决的问题)。这更多是一个“假设”问题。 因此,从理论上讲:您能否训练神经网络来预测给定数字n是合成还是素数?这样的网络将如何布局?

4
可以训练深层网络证明定理吗?
假设我们在一阶谓词演算中有大量证明。假设我们在该领域的数学形式中也有公理,推论和定理。 以每个被证明的命题和围绕该特定命题的现有理论为例,作为训练集中的一个例子,并将该命题的已知良好证明作为相关标签。现在,考虑专门为训练该示例集而设计的深层人工网络,并且正确设置超参数也可以这样做。 是否有可能以一种新的命题的表达和围绕它的现有理论以一阶谓词演算形式出现在输入端的方式训练深层的人工网络,从而在输出端产生证明? (当然,这些证明应随后手动检查。) 如果产生的良好证明的比例足够高,是否有可能创建一种遗传算法,向经过训练的深度网络提出建议,从而创建证明? 那可能吗? 是否可以使用这种深度网络设计来解决Collat​​z猜想或Riemann猜想,或者至少以数学家更能够得出合法证明的方式重新排列模式?



1
Q学习和策略梯度方法之间有什么关系?
据我了解,Q学习和策略梯度(PG)是用于解决RL问题的两种主要方法。Q学习旨在预测在某种状态下采取的某种行动的回报,而政策梯度则直接预测了行动本身。 但是,这两种方法对我来说似乎都是相同的,即,预测一个动作的最大回报(Q学习)等同于预测直接采取该动作的概率(PG)。损失向后传播的方式是否有所不同?

4
在强化学习中如何处理无效动作?
我想创建一个可以玩五行/五子棋的AI。正如我在标题中提到的那样,我想为此使用强化学习。 我将策略渐变方法(即REINFORCE)与基线一起使用。对于价值和政策函数的近似,我使用了神经网络。它具有卷积和完全连接的层。除输出外,所有层都是共享的。该策略的输出层具有8 × 8 = 648×8=648 \times 8=64(单板的大小)输出单元,并在其上具有softmax。因此它是随机的。但是,如果网络产生无效移动的可能性很高,该怎么办?无效的举动是当代理要检查其中有一个“ X”或“ O”的正方形时。我认为它可能会停留在该游戏状态中。 您能为这个问题推荐任何解决方案吗? 我的猜测是使用演员批评方法。对于无效的举动,我们应该给予负奖励,并将转牌转移给对手。

2
Jeff Hawkins的AI框架有哪些缺陷?
2004年,掌上电脑飞行员的发明者杰夫·霍金斯(Jeff Hawkins)出版了一本非常有趣的书,名为《On Intelligence》,其中详述了人类新皮层如何工作的理论。 该理论称为内存预测框架,它具有一些引人注目的功能,例如不仅自下而上(前馈),而且自上而下的信息处理以及对不同未来情况进行同时但离散的预测的能力(如所述)在本文中)。 内存预测框架的承诺是无监督地生成未来可能性的稳定高级表示。这可能会彻底改变整个AI研究领域。 霍金斯创立了一家公司,并开始执行他的想法。不幸的是,十多年后,他的想法仍未兑现。到目前为止,该实现仅用于异常检测,这与您真正想要执行的操作相反。除了提取理解之外,您还将提取人造皮层无法理解的实例。 我的问题是霍金斯框架的不足之处。迄今为止,有哪些具体或概念性的问题使他的理论无法付诸实践?
19 htm 

3
阿西莫夫定律是否存在设计缺陷,或者在实践中可行?
艾萨克·阿西莫夫(Isaac Asimov)著名的机器人三定律起源于阿西莫夫(Asimov)的科幻小说故事。在这些故事中,这三个定律是一种安全措施,以避免不合时宜或人为操纵的情况造成严重破坏。 阿西莫夫的叙述常常会找到打破这些叙述的方法,从而导致作者对法律本身进行一些修改。例如,在他的一些故事中,他修改了第一定律,添加了第四(或零)定律,甚至完全删除了所有定律。 但是,很容易得出这样的结论:在流行文化中,甚至在AI研究本身的领域中,机器人法则都被非常重视。忽略法律的不同,主观和互斥解释的附带问题,是否有任何论据证明法律本身因其设计而固有地存在缺陷,或者是否足以在现实中使用?同样,是否为此目的设计了更好,更严格的安全启发式方法?

11
开发体验人类般情感的人工智能将达到什么目的?
在《华尔街日报》最近的一篇文章中,Yann LeCunn发表以下声明: 实现人为人工智能的下一步是创建智能而非自主的机器。车内的AI系统可以让您安全回家,但是一旦进入车内就不会选择其他目的地。从那里,我们将添加基本的动力以及情感和道德价值观。如果我们创造出像我们的大脑一样学习和学习的机器,就很难想象它们会继承人类般的特质和缺陷。 就我个人而言,我一般都认为谈论人工智能的情感是愚蠢的,因为没有理由创建体验情感的AI。显然,扬恩不同意。所以问题是:这样做会达到什么目的?人工智能需要情感来充当有用的工具吗?

1
当Google的无人驾驶汽车看到有人穿着印有停车标志的T恤时,会停止吗?
在Google自驾车的隐藏障碍文章中,我们可以看到以下内容: Google的汽车可以检测并响应不在地图上的停车标志,此功能是为处理建筑工地使用的临时标志而引入的。 谷歌表示,其汽车可以识别几乎所有未映射的停车标志,并且如果错过了标志,它将保持安全,因为这些车辆一直在寻找交通,行人和其他障碍物。 如果汽车发现身穿印有停车标志的T恤衫,却发现前方有人(但不在碰撞路径上),将会发生什么情况。它会做出反应并停止汽车吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.