人工智能会给人类带来生存威胁吗?


9

我们正在做研究,花费数小时来弄清楚如何使真正的AI软件(智能代理)更好地工作。我们还尝试使用AI技术实现一些应用程序,例如在商业,健康和教育领域。

尽管如此,到目前为止,我们大多数人都忽略了人工智能的“黑暗”方面。例如,一个“不道德”的人可以购买成千上万的廉价无人机,用枪武装它们,然后将它们驱逐出去向公众射击。这将是AI的“不道德”应用。

人工智能是否会(将来)对人类构成生存威胁?


任何技术都有可能对人类构成生存威胁。
ANKUR

Answers:


2

我将智力定义为预测未来的能力。因此,如果某人很聪明,他可以预测未来的某些方面,并根据自己的预测来决定要做什么。因此,如果“聪明”的人决定伤害他人,那么他可能会对此非常有效(例如希特勒及其工作人员)。

人工智能在预测不确定的未来的某些方面可能非常有效。恕我直言,这导致了两种负面情况:

  1. 有人将其编程为伤害人。出于错误或故意。
  2. 人工智能将被设计用来做安全的事情,但是为了更有效,在某些时候,它将重新设计自己,也许会扫清障碍。因此,如果人类成为障碍,它们将非常迅速且非常有效地被清除。

当然,也有一些积极的情况,但是您并不是在问这些问题。

我建议阅读有关人工超级智能及其创建可能结果的精彩文章:http : //waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


谢谢您的回答。我对第二点非常感兴趣。积极的一面是,第一段很受欢迎,希望您能看到。
quintumnia '16

4

毫无疑问,人工智能有可能对人类构成生存威胁。

对人类最大的威胁在于超智能AI。

超越人类智慧的人工智能将能够以指数方式增加自身的智慧,从而导致对人类而言完全无法阻挡的AI系统。

在这个阶段,如果人工智能系统决定人类不再有用,它可能会把我们从地面上抹去。

正如Eliezer Yudkowsky在人工智能中指出的那样,它是全球风险的积极和消极因素

“人工智能既不恨你,也不爱你,但你是由原子构成的,它可以用于其他用途。”

高度智能的AI的指令带来了另一种威胁

在这里考虑回形针最大化器思想实验很有用。

被指示最大化回形针生产的高度智能的AI可能会采取以下步骤来实现其目标。

1)实现智能爆炸,使自己变得超级智能(这将提高回形针的优化效率)

2)消灭人类,使其不致残废(这将最大程度地减少生产并降低效率)

3)利用地球的资源(包括地球本身)来构建托管AI的自我复制机器人

4)呈指数分布在整个宇宙中,同时收获行星和恒星,将它们转变为用于建造回形针工厂的材料

显然,这并不是想要生产商务回形针的人员,而是实现AI指令的最佳方法。

这说明了超级智能和高度智能的AI系统如何成为人类可能面临的最大生存风险。

穆雷·沙纳汉(Murray Shanahan)在《技术奇点》(Technological Singularity)一书中甚至提出AI可能是费米悖论的解决方案:我们之所以看不到宇宙中的任何智能生命,可能是因为一旦文明发展到足够先进的水平,它将发展出一种AI并最终摧毁它它。这就是宇宙滤波器的概念。

总而言之,使AI如此有用的智能也使其变得极为危险。

像埃隆·马斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)这样有影响力的人物已经对超级智能AI是我们将要面临的最大威胁表示担忧。

希望这能回答你的问题 :)

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.