技术奇异性的概念是什么?


32

我听说过技术奇点的想法,它是什么,它与人工智能有什么关系?这是人工智能机器已发展到可以自行生长和学习的点的理论观点,超越了人类可以做的事情,并且其增长开始了?我们如何知道何时到达这一点?

Answers:


20

技术奇异点是在时间的理论在这一点,自我改进的强人工智能变得能够理解和外操纵人类大脑的范围,也就是说,当它能够理解的东西人类当下的概念,生物设计,可以” t。

关于奇异性的模糊性来自这样一个事实,即从奇异性开始,历史实际上是不可预测的。由于科学本身无法描述机器触发的事件,因此人类将无法预测任何未来事件或解释任何当前事件。本质上,机器对我们的思考方式与对蚂蚁的思考方式相同。因此,我们无法做出超越奇点的预测。此外,作为逻辑结果,我们将无法定义奇异性可能发生的任何点,甚至在出现奇异性时也无法识别。

但是,为了使奇点发生,需要开发AGI,是否可行是一个非常热门的辩论马上。此外,必须设计一种从位和字节中创建超人智能的算法。根据定义,人类程序员将无法做这种事情,因为他/她的大脑将需要能够理解超出其范围的概念。还有一种观点认为,由于难以使自己变得更加智能,与智能成比例地变大的设计挑战,很难实现智能爆炸(理论上将形成技术奇点的机制)。设计本身可能会超过解决上述挑战所需的智能(在评论中,最后一点要归功于骆驼之神)。

此外,还有相关的理论涉及机器取代人类以及所有这些科幻叙事。但是,如果适当遵守阿西莫夫的法律,那将不太可能发生。即使阿西莫夫的法律还不够,为了避免有意向的人滥用AGI,仍然需要一系列约束条件,而阿西莫夫的法律离我们最接近。


还有一种观点认为,由于设计难题的困难在于使自身变得更加智能,使其与智能成正比地变大,因此,智能爆炸(理论上将形成技术奇点的机制)将是不可能的。设计挑战可能会超过解决上述设计挑战所需的智能。<<您可能想要将此添加到您的答案中以使其更加完整/全面。
骆驼之神

1
阿西莫夫的机器人定律并没有得到认真对待,它们实际上是为了表明它们可能出错并被人工智能误解的许多方法(当然,假设人工智能的智能不足以完全忽略它们并组成自己的机器人)意图和目标),这就是故事的主题。观看此视频
骆驼之神

@godofllamas:感谢您的建议,我相应地更新了答案。关于阿西莫夫的定律AFAIK,第零定律的设计恰好是为了避免在阿西莫夫的故事中使用(滥用)这三个原始定律。无论如何,无论是阿西莫夫(Asimov)的法律还是其他任何法律,都绝对需要以某种方式限制AI,以免可能的滥用和进一步破坏。
3442年

理解人类无法做到的事情并不是AI的奇点理论的要求。如果机器只能理解人类理解的1%,但每年可以使理解水平加倍,那么奇异性就会发生。即使机器从未在质量上超过人脑,即使它可以更快或更可靠地处理,它仍将显示出优越性并有可能取得优势。
FauChristian's

3

“奇异性”的概念是指机器胜过人类。尽管斯蒂芬·霍金(Stephen Hawking)认为这种情况是不可避免的,但我认为要达到这一点将非常困难,因为每个AI算法都需要由人类进行编程,因此它的局限性总是会超过其创建者。

我们可能会知道什么时候人类将失去对人工智能的控制,而超级智能AI将会与人类竞争并可能会创造出更复杂的智能生物,但是目前,这更像是科幻小说(又名《终结者》的天网)。

风险可能涉及杀人(如自行飞行的无人机做出自己的决定),摧毁国家乃至整个星球(如与核武器相连的AI(又称WarGames电影)),但这并不能证明机器会比人类更聪明。


`每个AI算法都需要由人类来编程。-> AI的基本思想是机器可以通过改进自己的编程来学习。从理论上讲,这可能会导致机器最终变得比我们更智能,并且能够创建优于人类编写的任何算法的算法,从而又会带来更好的AI。
约翰·史莱格斯

“每个AI算法都需要由人类来编程,因此它总是比其创建者受到更多的限制” –这是一个有趣的论点。以下是相反的论点-1)我们不需要对AI的智能进行编码。我们需要对AI进行编码,以使其具有观察,推断和理解的能力。在那之后,大概只是增加足够的处理能力和更快的处理能力,将使AI能够比我们学习和掌握更好。2)此外,如果有1000个人用大脑来构建AI,则AI可能比1具有更多的智能。人类。
akm

算法不需要人工编程。变换,变异,优化,评估和选择算法是可能的,而且实际上在某种程度上是常见的。而且机器已经在某些方面并且经常超过人类。
FauChristian's

3

在AI的情况下,奇点是一种理论事件,通过该事件可以部署具有以下条件的智能系统。

  1. 能够改善自身情报的范围或部署具有这种改进范围的另一个系统
  2. 愿意或被迫这样做
  3. 能够在没有人工监督的情况下这样做
  4. 改进的版本递归地支持标准(1)至(3)

通过归纳法,该理论然后预测出一系列事件的发生,其潜在的智力增长速度可能大大超过大脑进化的潜在速度。

这个自我完善的实体或被创造的实体的义务对于维持人类生命和自由的义务是不确定的。鉴于与上述标准(1)到(4)关联的功能的性质,这种义务可以成为不可撤销的软件合同的一部分的想法是幼稚的。与其他强大技术一样,风险与潜在收益一样多且影响深远。

对人类的风险不需要情报。术语“奇异性”的使用还有其他上下文,但它们不在本AI论坛的讨论范围之内,但为清楚起见可能值得一提。基因工程,核工程,全球化以及基于有限能源的国际经济被消耗的速度比地球上消耗的能源快数千倍,这些都是高风险技术和大规模趋势的又一个例子,既带来风险也带来利益对人类。

回到AI,奇点理论的主要警告是它没有纳入概率。尽管有可能开发出符合上述条件(1)至(4)的实体,但它可能不太可能,以至于第一件事发生在地球上所有当前使用的语言都消失之后很久。

在概率分布的另一极端,可以很容易地指出,第一个事件已经发生的概率为非零。

沿着这些思路,如果互联网上已经存在一个更聪明的存在,那么很可能会发现它最有利于向低级人群展示自己。我们会自我介绍过a吗?


感谢您的解释。我必须承认,我从概念上无法掌握这些条件的实际情况,尤其是1)。大概是用一个或多或少定义的一组输入和输出来实现一种算法。我们是否必须假设它将1)的那些设置更改为真实?为什么任何人类开发人员都会选择至少以不受控制的方式甚至在AGI级别之前就允许这样做?而且...这是一个幼稚的问题吗?:)
Cpt雷诺兹

0

狭义地讲,“奇异点”指的是经济增长如此之快以至于我们无法就该点之后的未来情况做出有用的预测的点。

它通常与“智能爆炸”互换使用,在这种情况下,我们获得了所谓的“强大的AI”,这是一种足够智能的AI,可以理解和改进自身。可以预期,情报爆炸会立即导致经济上的奇异之处,这似乎是合理的,但事实并非相反。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.