是否有任何科学/数学论据阻止深度学习产生强大的AI?


12

我读了Judea Pearl的《为什么书》,其中提到深度学习只是一种荣耀的曲线拟合技术,将无法产生类似于人的智力。

在他的书中有这张图说明了认知能力的三个层次:

认知能力的三个层次

想法是,当前的深度学习技术所产生的“智能”仅处于关联级别。因此,AI距离问“如何使Y发生”(干预)和“如果我采取不同的行为怎么办,X还会发生吗?”之类的问题相去甚远。(反事实),曲线拟合技术极不可能使我们更接近更高的认知能力。

我发现他的论点在直觉上具有说服力,但我找不到任何可以支持或怀疑该论点的物理或数学定律。

那么,是否有任何科学/物理/化学/生物/数学论证阻止深度学习产生强大的AI(类人智力)?


几小时前,我们遇到了某种谈论神经科学和人工智能的问题,所以我认为这个问题除了机器学习之外,还适合数据应用。
quintumnia

1
回答这一问题时面临的问题之一是,“深度学习”是一种品牌名称,其中使用超出统计曲线拟合的神经网络完成的事情(例如用于学习序列的RNN和“深度强化学习”)可能信徒也将其视为其中的一部分。如果您允许术语像这样演变,那么很难确定有关其功能的任何论点。
尼尔·斯莱特

戈德尔的不完全性定理
riemann77 '18

2
@thecomplexitytheorist:戈德尔的残缺不全,Entscheidungsproblem问题及类似之处,它们在人类头脑中也同样适用。结论是,如果他们是没有达到AI的理由,那么人类都不会聪明。否定后件,Godels不在路径AGI一个问题
pasaba POR褐

谁说“做”和“想象”也不只是在大脑中进行的“曲线拟合”?
Dunk

Answers:


3

裘德·珀尔(Judea Pearl)在2018年对ACM.org的评论中,在他的《打造真正的智能机器》中,教他们因果关系突破真理。

深度学习的所有令人瞩目的成就都等于曲线拟合。

[Rñ

  1. 人工网络无法执行逻辑。
  2. 人工网络是实现AI的最佳方法。

如何将理性从智力的重要人类特征列表中排除,这两个主张合在一起意味着什么?

人脑是复杂的曲线拟合器网络吗?马文·明斯基(Marvin Minsky)的著名语录“大脑恰好是一台肉食机器”,但没有提供任何证据,也没有提供关于他对人脑琐事化的证据,也没有提供证明该大脑超出了图灵可计算性范围的证据。 。

当您阅读这些单词时,您的神经网络是否在执行以下曲线拟合序列?

  • 视网膜棒和视锥细胞的边缘
  • 边缘线
  • 线形
  • 形状的字母
  • 字母组中的语言元素
  • 要素的语言结构
  • 从语言结构中理解

可以肯定的是,前五个是模型上的收敛机制,所有机器学习结构都只是将数据拟合到模型的一种方法。

最后两个项目符号是范式破裂的地方,许多AI研究人员和作者正确地指出,仅基于多层多层感知器和卷积内核时,机器学习具有明显的局限性。此外,最后一个项目符号在其当前状态下被大大简化了,可能数量级大了。即使Minsky认为计算机可以执行大脑的工作是正确的,阅读和理解本段的过程也很容易在内部工作流程的模式下以大量并行方式拥有上千种不同的独特过程组件。成像技术表明了这种可能性。我们的计算机仅对最简单的外围层进行建模。

是否有任何科学/数学论据阻止深度学习产生强大的AI?—不。但是也没有这样的论据可以保证。

这里的其他问题将调查这些复杂的曲线拟合器是否可以执行认知或推理的元素。

问题图像中的三个图腾(看到,执行和想象)并不是特别完整,准确或有见地。

  • 人类中至少有五种感官范式,而没有一种
  • 数十亿年之前,人类先于人类的感知而行动-细菌
  • 想象不是一个比以往经验模型重现场景的过程高得多的方法,它采用某种方法来应用集合函数来组合它们并注入随机突变
  • 创意可能只是在上一个项目符号中进行想象,然后以一些面向市场的质量标准淘汰无用的想象结果,而留下了令人印象深刻的创意产品

较高的形式是欣赏,超出科学测量范围的现实感,合理怀疑,爱,为他人或人类的利益而牺牲。

许多人意识到,人工智能技术的现状远不止是一个可以可靠地回答“我如何使Y发生?”的系统的采购。或“如果我采取不同的行动,X是否还会出现?”

没有任何数学证据可以证明,小曲线拟合元素的某种组合可以或不能像一般人一样达到回答这些问题的能力,这主要是因为对数学上的智能或如何定义它的理解不足。

人类的智慧也可能根本不存在,提及人类的智慧是基于一种宗教信仰,即我们作为一个物种比其他物种更高。我们可以填充,消耗和消灭的东西实际上并不是非常聪明的智能概念。

关于人类智力是一种适应性的说法,这种区别使我们与其他哺乳动物区分开来,这与我们适应性是否良好相冲突。我们尚未经过测试。下一波全球杀手的来临,其冲击波的大小类似于Chicxulub陨石坑的流星,其次是几千年的太阳冬季,我们将看看是16万年存在还是40亿年细菌生存证明更具可持续性。在生活的时间轴上,人类智能尚未证明自己是一种适应性特质。

关于AI开发的清楚之处在于,基于多层感知器概念和卷积内核(严格地是表面拟合器)的其他类型的系统也在与深度学习者一起发挥作用。

Q学习组件,基于注意力的组件和长期短期记忆组件也严格来说都是表面贴合剂,但是只能通过扩展表面贴合的定义来实现。它们具有实时的自适应属性和状态,因此可以成为图灵完整的。

模糊逻辑容器,基于规则的系统,具有马尔可夫属性的算法以及许多其他组件类型也都发挥了作用,根本不是表面贴合剂。

总而言之,所提出的观点不仅仅具有合理性或令人愉悦的直觉品质,但是,许多作者并未提供具有定义,应用,引理,定理,证明甚至思想实验的数学框架。以正式方式进行审查。


1

这是一个悖论,但是深度学习机器(定义为NeuralNet变体)无法学习任何东西。它是一种灵活且可配置的硬件/软件体系结构,可以对其进行参数设置以解决许多问题。但是,通过外部系统(即反向传播算法)可以获得解决问题的最佳参数。

反向传播子系统使用常规的编程范例,它不是神经网络。这个事实与人类的思想完全相反,在这里人们对知识的学习和使用是由同一系统(思想)完成的。

如果所有真正有趣的事情都是在NN之外完成的,则很难断言NN(任何变体)都可以在AGI中发展。

还有可能发现更多差异。神经网络在其界面和内部都具有很强的数值。从这个角度来看,它们是支持向量机的演变。

期望AGI的差异和限制太多。

注意:我强烈不同意原始问题中包含的抽奖。“看见”,“正在做”,“想象”是绝对错误的水平。它从基本和通用软件概念中忽略了“抽象”或“程序状态”(请记住,用图灵的话);将人工智能应用为“预见”;和AGI的意思是“自由意志”,“目标和感受”,...


4
我认为从考虑中删除反向传播(或培训框架的任何部分),并声称其余部分 “深度学习”部分是人为的,并且可以回避此问题。我认为可以合理地假设OP意味着实践中的深度学习,包括可用的培训过程。
尼尔·斯莱特

1
@NeilSlater:如果我们说DL是一种NeuralNet(为了说明与人类思维的相似性,并因此指出其达到AGI的可能能力),我们将学习部分排除在外,这不是NN 。如果我们将学习子系统包括在DL的定义中,那么它就不是NN,它只是常规编程,具有任何常规程序的功能,并且与其他任何程序系统或范例一样,具有达到AGI的可能性。
pasaba por aqui

人脑仅通过接收和处理来自外部“系统”的输入来学习。通过反复试验,应用规则和处理来自外部系统的输入获得解决问题的最佳参数。在婴儿仍在子宫中时开始训练,此后继续24/7。AI的当前状态几乎可以肯定不能与模拟人脑相提并论。但声称AI无法学习(或尚未以与人脑类似的方式学习)是假设了人脑如何“学习”和科学尚不了解的功能的知识。
Dunk
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.