人工智能

对于在纯数字环境中可以模仿“认知”功能的世界中对生活和挑战感兴趣的人们的问答

1
复值神经网络的优点是什么?
在研究过程中,我偶然发现了“复杂值神经网络”,它们是可以处理复杂值输入(可能也是权重)的神经网络。与实值神经网络相比,这种神经网络有哪些优势(或仅仅是应用)?


3
阻碍当前AI发展的主要问题是什么?
我拥有计算机工程专业的背景,并且一直致力于开发更好的算法来模仿人类的思想。(我最喜欢的是类比建模应用于语言处理和决策。)但是,我研究的越多,我越意识到刚才多么复杂的AI。 我曾尝试解决该领域的许多问题,但有时我发现自己正在重新发明轮子或试图解决一个已经被证明无法解决的问题(即停顿问题)。因此,为了帮助推动AI的发展,我想更好地了解阻碍我们在该领域取得进展的当前障碍。 例如,某些机器学习算法的时间和空间复杂度是超多项式的,这意味着即使使用快速的计算机,该程序也可能需要一段时间才能完成。即便如此,某些算法在处理较小的数据集时在台式机或其他计算机上可能很快,但是当增加数据大小时,该算法变得难以处理。 人工智能开发当前还面临哪些其他问题?

5
是否已经开发出任何可以故意欺骗/欺骗人类的AI系统?
当今的AI系统是功能强大的机器,最近,自然语言处理和响应领域以及AI机器的基本算法结构都在不断创新。 我想问的是,鉴于这些最新的突破,是否开发出了能够(最好以某种程度的成功)向人类撒谎的人工智能系统(已知具有某种事实)? 请注意,我要问的内容超出了图灵测试的规范讨论范围。我问的机器可以“理解”事实,然后根据这个事实制定一个谎言,也许利用其他事实来产生可信的“掩盖”作为谎言的一部分。 EG:CIA超级计算机被间谍偷走了,他们试图用计算机来做事,但是计算机一直在说它丢失了依赖项,尽管它实际上不是,或者是故意提供看起来正确但错误的答案。或给人错误的位置,知道该人常去某个地方,但此刻不在。当然,不必这么复杂。



4
人工生命中复制子的自发出现
自私基因(Dawkins)的基石之一是复制子(即能够自我复制的分子)的自发出现。 是否在开放式进化/人工生命模拟中对计算机进行了建模? 像Avida或Tierra这样的系统明确指定了复制机制。其他遗传算法/遗传编程系统明确搜索复制机制(例如,简化von Neumann通用构造函数) 欢迎链接到原始数字汤中出现复制器的仿真链接。

3
为什么REINFORCE算法中的折现率出现两次?
我正在阅读Richard S.Sutton和Andrew G.Barto撰写的《强化学习:入门》(初稿,2017年11月5日)。 在第271页上,给出了突发性蒙特卡洛策略梯度方法的伪代码。看着这个伪代码,我无法理解为什么折扣率似乎出现2次,一次处于更新状态,而第二次出现在返回状态。[见下图] 看来,步骤1之后的步骤返回只是第一步返回的截断。此外,如果您仅在书的上方看一页,则会发现方程式的折现率仅为1(收益率内的那一)。 为什么伪代码似乎不同?我的猜测是我误会了一些东西: θt+1 =˙ θt+αGt∇θπ(At|St,θt)π(At|St,θt).(13.6)(13.6)θt+1 =˙ θt+αGt∇θπ(At|St,θt)π(At|St,θt). {\mathbf{\theta}}_{t+1} ~\dot{=}~\mathbf{\theta}_t + \alpha G_t \frac{{\nabla}_{\mathbf{\theta}} \pi \left(A_t \middle| S_t, \mathbf{\theta}_{t} \right)}{\pi \left(A_t \middle| S_t, \mathbf{\theta}_{t} \right)}. \tag{13.6}

4
如何选择数据的相关特征?
最近,我正在研究一个问题,以便对某些特定资源的支出进行成本分析。我通常会根据分析做出一些手动决策,并据此计划。 我有一个Excel格式的大数据集,有数百列,定义了各种时间范围和类型(其他各种详细使用情况)中资源的使用情况。我还可以获得有关我之前4年的数据以及实际资源使用情况和相应产生的成本的信息。 我希望训练一个神经网络来事先预测我的成本并计划,甚至在我可以手动进行成本分析之前。 但是我面临的最大问题是需要确定此类分析的功能。我希望有某种方法可以从数据集中识别功能。 PS-我对PCA和其他一些功能集简化技术有所了解,我正在寻找的是首先识别它们的方法。


8
证明人工智能可能
在计算机科学中,假设可以用图灵机复制人的思想,因此可以使用人工智能(AGI)。否则,就是相信某种神秘的东西,而神秘的信念是错误的。 我不知道有任何其他论据认为可以使用AGI,并且上述论点极其薄弱。 至少在理论上有严格的证据证明AGI是可能的吗?我们如何知道人类的思维能力可以被编码为程序?
11 philosophy  agi  proofs 

5
为什么深度神经网络和深度学习不足以实现一般智力?
与深度学习(DL)和深度(er)网络相关的所有事物似乎都是“成功的”,至少进展非常迅速,并培养了人们对AGI可以达到的信念。这是流行的想象力。DL是解决许多问题(包括创建AGI)的强大工具。但是,这还不够。工具是必需的成分,但通常不足。 该领域的领先者正在寻求其他方面的进步。本报告/声明收集了Yoshua Bengio,Yann LeCun和Geoff Hinton的声明的链接。。该报告还解释了: DL的主要缺点(如我所见)是:依赖最简单的模型神经元(LeCun称其为“卡通”);使用19世纪统计力学和统计学的思想,这些思想是能量函数和对数似然方法的基础;以及反向支撑和随机梯度下降等技术的结合,导致应用范围非常有限(脱机,主要是分批,有监督的学习),需要高才能的从业人员(又名“随机研究生下降”),且价格昂贵标记的训练数据和计算能力。虽然DL对于可以吸引或购买人才并部署无限资源以收集数据并处理数据的大型公司非常有用,但DL对我们大多数人而言既无用又无用。 尽管有趣且相关,但这种解释并不能真正解决问题的要点:缺少什么? 这个问题似乎很广泛,但可能是由于缺乏简单的答案。有没有办法确定AGI缺少的DL?

2
有人还在使用概念依赖理论吗?
Roger Schank在1970年代利用概念依赖(CD)在语言处理方面做了一些有趣的工作。然后,他有些移出了领域,如今正在接受教育。在自然语言生成(BABEL),故事生成(TAILSPIN)和其他领域中有一些有用的应用程序,通常涉及计划和情节而不是单个句子。 是否还有其他人继续使用CD或其变体?除了Hovy的PAULINE(使用CD表示要生成的故事)以外,我没有其他项目可以使用。



By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.