人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答


1
知识库现在扮演什么角色,将来扮演什么角色?
如今,人工智能似乎几乎等于机器学习,尤其是深度学习。有人说深度学习将取代人类专家,在这一领域,人类专家对特征工程非常重要。据说深度学习的兴起有两个突破:一方面是神经科学,另一方面是神经可塑性尤其是告诉我们,就像高度可塑的人脑一样,人工网络可以用于几乎所有功能的建模。另一方面,计算能力的提高,特别是GPU和FPGA的引入,以惊人的方式增强了算法智能,并已使数十年前创建的模型具有强大而通用的功能。我还要补充说,过去几年中积累的大数据(主要是标签数据)也很重要。 这种发展将计算机视觉(和语音识别)带入了一个新时代,但是在自然语言处理和专家系统中,情况似乎并没有太大变化。 实现神经网络的常识似乎是一项艰巨的任务,但是大多数句子,对话和短文本都包含从背景知识中得出的推论。因此,知识图谱对人工智能非常重要。神经网络可用于构建知识库,但似乎神经网络模型难以利用这些构建的知识库。 我的问题是: 知识库(例如,由Google创造的“知识图”)在AI中是很有前途的分支吗?如果是这样,知识库可以通过哪些方式增强机器学习能力?我们如何将离散的潜在变量合并到NLU和NLG中? 对于在DL主导的时代中的生存,知识库的方向(或总称符号方法)在哪里?像Wolfram一样的z动态知识库是否是新的方向?还是任何新的方向? 我是否缺少一些基本知识或解决这些问题的想法?

2
这七个AI问题特征如何帮助我决定解决问题的方法?
如果此列表1可用于对AI中的问题进行分类... 可分解为较小或更容易解决的问题 解决方案步骤可以忽略或撤消 可预测的问题宇宙 好的解决方案是显而易见的 使用内部一致的知识库 需要大量知识或使用知识来约束解决方案 需要人与计算机之间的定期交互 ...问题在这些维度上的位置与解决方案的合适算法/方法之间是否存在公认的关系? 参考文献 [1] https://images.slideplayer.com/23/6911262/slides/slide_4.jpg




3
哥德尔定理对人工智能研究有何启示?
注意:我在哥德尔定理方面的经验非常有限:我读过哥德尔·埃舍尔·巴赫(GödelEscher Bach)。略读了戈德尔定理简介(彼得·史密斯)的上半部分;以及互联网上到处都是随机的东西。也就是说,我对该理论只有一个模糊的高级理解。 在我的拙见中,哥德尔不完备定理(及其许多相关定理,例如停顿问题和洛布斯定理)是最重要的理论发现。 然而,观察到定理的理论应用并不多(至少据我所知)有点令人失望,可能部分是由于1.证明的钝性2.人们没有强大的哲学含义愿意轻松地致力于。 尽管如此,仍然有一些尝试将定理应用到心智/人工智能环境中。从我的头顶上: 卢卡斯-彭罗斯(Lucas-Penrose)论点:认为头脑不是在正式系统上实现的(例如在计算机中)。(但是,不是很严格的证明) 显然,MIRI的一些研究使用的是LöbsThereom,尽管我所知道的唯一一个例子是Löbian代理商合作。 这些都很酷,但是还有更多示例吗?特别是那些学术界认真考虑的问题。 (参见:哥德尔的第一个不完全性定理的哲学含义是什么?)
13 philosophy 

4
人工智能可以在避免“道德上次优”选择的同时进行横向思考吗?
在最近的PC游戏The Turing Test中,AI(“ TOM”)需要Ava的帮助才能通过一些拼图室。汤姆说他不能解决难题,因为不允许他“ 横向思考 ”。具体来说,他说他不会想到要通过窗户扔一个盒子来解决第一个房间。故事发生了,他的创造者将这种能力关闭了,因为这种想法可能会产生“道德上次优”的解决方案,例如砍掉一条胳膊放在压力板上。 是否需要从AI中删除所有创造性的难题解决能力以保持其结果合理,或者我们可以在不失去优势的情况下获得横向思考的一些好处?

3
如何在强化学习中实现受限的行动空间?
多亏了在Tensorflow之上构建的非常好的Tensorforce库,我正在使用PPO代理编写增强学习模型。 第一个版本非常简单,我现在正进入一个更复杂的环境,在该环境中,每个步骤都不提供所有操作。 假设有5个动作,它们的可用性取决于内部状态(由上一个动作和/或新的状态/观察空间定义): 2个动作(0和1)始终可用 仅当internal_state == 0时,才有2个动作(2和3)可用 1动作(4)仅在internal_state == 1时可用 因此,当internal_state == 0时有4个动作可用,而internal_state == 1时有3个动作可用。 我正在考虑实现该目标的几种可能性: 根据internal_state,在每一步更改操作空间。我认为这是胡说八道。 不执行任何操作:让模型了解选择不可用的操作没有影响。 几乎不执行任何操作:当模型选择不可用的操作时,会对奖励产生轻微的负面影响。 帮助模型:通过将整数合并到状态/观察空间中,通知模型什么是internal_state值+项目符号点2或3 还有其他方法可以实现吗?根据您的经验,哪一个最好?

2
如何选择激活功能?
我根据需要的输出和已知的激活函数的属性为输出层选择激活函数。例如,当我处理概率时,我选择了S型函数;当我处理正值时,我选择了一个ReLU;当我处理一般值时,我选择了一个线性函数。 在隐藏层中,我使用泄漏的ReLU来避免死亡的神经元,而不是ReLU和tanh而不是乙状结肠。当然,我不会在隐藏单位中使用线性函数。 但是,在隐藏层中对它们的选择主要是由于反复试验。 在某些情况下,哪种激活功能可能会起作用,是否有任何经验法则?尽可能将情况称为“ 情境”:它可能是指该层的深度,NN的深度,该层的神经元数量,我们选择的优化程序,其输入特征的数量。到该NN的应用等 在他/她的答案中,cantordust指的是我未提及的其他激活功能,例如ELU和SELU。此信息非常受欢迎。但是,我发现激活功能越多,对于在隐藏层中使用的功能的选择我就越感到困惑。而且我不认为掷硬币是选择激活功能的好方法。

1
为什么在强化学习示例中看不到辍学层?
我一直在研究强化学习,尤其是在创建自己的环境以与OpenAI Gym AI配合使用的过程中。我正在使用stable_baselines项目中的代理进行测试。 我在几乎所有RL示例中都注意到的一件事是,在任何网络中似乎都没有任何丢失层。为什么是这样? 我创建了一个模拟货币价格的环境,并使用DQN创建了一个简单的代理商,该代理商试图了解何时进行买卖。从一组包含一个月的5分钟价格数据的特定数据中进行训练的时间跨度将近一百万,这似乎过于适合了。如果我随后评估代理商,并针对不同月份的数据模型进行评估,那就太糟糕了。所以听起来像经典的过拟合。 但是,为什么没有在RL网络中看到缺失层?是否有其他机制可以解决过度拟合问题?还是在许多RL实例中都没关系?例如,在“突破”游戏中可能只有一种真正的方法来获得最终的高分,所以您不妨一口气地学到它,而不必一概而论? 还是认为环境本身的混乱性质应该提供足够多的不同结果组合,而您无需具有辍学层?


4
我们离创建Ex Machina有多近?
是否有任何研究团队试图创建或已经创建了一个与Ex Machina或I,Robot电影中的机器人一样智能的AI机器人? 我不是在谈论完全的意识,而是在谈论可以做自己的决定以及人类可以做的身体和智力任务的虚构的存在?
13 research  agi  robots 

1
什么时候应该使用强化学习与PID控制?
在设计诸如OpenAIGym上的Lunar Lander之类的问题的解决方案时,强化学习是一种诱人的方法,可为特工提供足够的动作控制以使其成功着陆。 但是,在什么情况下,控制系统算法(例如PID控制器)可以很好地完成强化学习(如果不是更好的话)呢? 诸如此类的问题这一个做的是解决这个问题的理论非常出色,但无助于解决实际分量。 作为一名人工智能工程师,问题领域的哪些要素应该向我建议PID控制器不足以解决问题,而应改用强化学习算法(反之亦然)?

2
什么是递归神经网络?
令人惊讶的是,以前没有问过这个问题-至少除了一些模糊的相关问题外,我什么也没找到。 那么,什么是递归神经网络?与常规神经网络相比,它们有什么优势?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.