Answers:
我将智力定义为预测未来的能力。因此,如果某人很聪明,他可以预测未来的某些方面,并根据自己的预测来决定要做什么。因此,如果“聪明”的人决定伤害他人,那么他可能会对此非常有效(例如希特勒及其工作人员)。
人工智能在预测不确定的未来的某些方面可能非常有效。恕我直言,这导致了两种负面情况:
当然,也有一些积极的情况,但是您并不是在问这些问题。
我建议阅读有关人工超级智能及其创建可能结果的精彩文章:http : //waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
毫无疑问,人工智能有可能对人类构成生存威胁。
对人类最大的威胁在于超智能AI。
超越人类智慧的人工智能将能够以指数方式增加自身的智慧,从而导致对人类而言完全无法阻挡的AI系统。
在这个阶段,如果人工智能系统决定人类不再有用,它可能会把我们从地面上抹去。
正如Eliezer Yudkowsky在人工智能中指出的那样,它是全球风险的积极和消极因素,
“人工智能既不恨你,也不爱你,但你是由原子构成的,它可以用于其他用途。”
高度智能的AI的指令带来了另一种威胁
在这里考虑回形针最大化器思想实验很有用。
被指示最大化回形针生产的高度智能的AI可能会采取以下步骤来实现其目标。
1)实现智能爆炸,使自己变得超级智能(这将提高回形针的优化效率)
2)消灭人类,使其不致残废(这将最大程度地减少生产并降低效率)
3)利用地球的资源(包括地球本身)来构建托管AI的自我复制机器人
4)呈指数分布在整个宇宙中,同时收获行星和恒星,将它们转变为用于建造回形针工厂的材料
显然,这并不是想要生产商务回形针的人员,而是实现AI指令的最佳方法。
这说明了超级智能和高度智能的AI系统如何成为人类可能面临的最大生存风险。
穆雷·沙纳汉(Murray Shanahan)在《技术奇点》(Technological Singularity)一书中甚至提出AI可能是费米悖论的解决方案:我们之所以看不到宇宙中的任何智能生命,可能是因为一旦文明发展到足够先进的水平,它将发展出一种AI并最终摧毁它它。这就是宇宙滤波器的概念。
总而言之,使AI如此有用的智能也使其变得极为危险。
像埃隆·马斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)这样有影响力的人物已经对超级智能AI是我们将要面临的最大威胁表示担忧。
希望这能回答你的问题 :)