Answers:
该技术奇异点是在时间的理论在这一点,自我改进的强人工智能变得能够理解和外操纵人类大脑的范围,也就是说,当它能够理解的东西人类当下的概念,生物设计,可以” t。
关于奇异性的模糊性来自这样一个事实,即从奇异性开始,历史实际上是不可预测的。由于科学本身无法描述机器触发的事件,因此人类将无法预测任何未来事件或解释任何当前事件。本质上,机器对我们的思考方式与对蚂蚁的思考方式相同。因此,我们无法做出超越奇点的预测。此外,作为逻辑结果,我们将无法定义奇异性可能发生的任何点,甚至在出现奇异性时也无法识别。
但是,为了使奇点发生,需要开发AGI,是否可行是一个非常热门的辩论马上。此外,必须设计一种从位和字节中创建超人智能的算法。根据定义,人类程序员将无法做这种事情,因为他/她的大脑将需要能够理解超出其范围的概念。还有一种观点认为,由于难以使自己变得更加智能,与智能成比例地变大的设计挑战,很难实现智能爆炸(理论上将形成技术奇点的机制)。设计本身可能会超过解决上述挑战所需的智能(在评论中,最后一点要归功于骆驼之神)。
此外,还有相关的理论涉及机器取代人类以及所有这些科幻叙事。但是,如果适当遵守阿西莫夫的法律,那将不太可能发生。即使阿西莫夫的法律还不够,为了避免有意向的人滥用AGI,仍然需要一系列约束条件,而阿西莫夫的法律离我们最接近。
“奇异性”的概念是指机器胜过人类。尽管斯蒂芬·霍金(Stephen Hawking)认为这种情况是不可避免的,但我认为要达到这一点将非常困难,因为每个AI算法都需要由人类进行编程,因此它的局限性总是会超过其创建者。
我们可能会知道什么时候人类将失去对人工智能的控制,而超级智能AI将会与人类竞争并可能会创造出更复杂的智能生物,但是目前,这更像是科幻小说(又名《终结者》的天网)。
风险可能涉及杀人(如自行飞行的无人机做出自己的决定),摧毁国家乃至整个星球(如与核武器相连的AI(又称WarGames电影)),但这并不能证明机器会比人类更聪明。
在AI的情况下,奇点是一种理论事件,通过该事件可以部署具有以下条件的智能系统。
通过归纳法,该理论然后预测出一系列事件的发生,其潜在的智力增长速度可能大大超过大脑进化的潜在速度。
这个自我完善的实体或被创造的实体的义务对于维持人类生命和自由的义务是不确定的。鉴于与上述标准(1)到(4)关联的功能的性质,这种义务可以成为不可撤销的软件合同的一部分的想法是幼稚的。与其他强大技术一样,风险与潜在收益一样多且影响深远。
对人类的风险不需要情报。术语“奇异性”的使用还有其他上下文,但它们不在本AI论坛的讨论范围之内,但为清楚起见可能值得一提。基因工程,核工程,全球化以及基于有限能源的国际经济被消耗的速度比地球上消耗的能源快数千倍,这些都是高风险技术和大规模趋势的又一个例子,既带来风险也带来利益对人类。
回到AI,奇点理论的主要警告是它没有纳入概率。尽管有可能开发出符合上述条件(1)至(4)的实体,但它可能不太可能,以至于第一件事发生在地球上所有当前使用的语言都消失之后很久。
在概率分布的另一极端,可以很容易地指出,第一个事件已经发生的概率为非零。
沿着这些思路,如果互联网上已经存在一个更聪明的存在,那么很可能会发现它最有利于向低级人群展示自己。我们会自我介绍过a吗?