Answers:
任何面向目标的代理都可以简单地完成自己的目标,而忽略对这些目标无关紧要的副作用。
如果我的目标包括一个整洁的居住空间,那么我可以将院子改成漂亮的平坦草坪或人行道,同时清除以前存在的复杂的生活生态系统,因为我并不特别在意。
如果特定功能强大的AI的目标恰好包括大规模执行任何操作,并且不怎么关心当前的复杂生态系统,则该生态系统可能会在此过程中被淘汰。它并不需要对想要或需要消灭我们。如果我们根本不符合其目标,那么我们将由材料制成并占用其可能用于其他用途的空间。
任何面向目标的代理都可能希望确保他们能够实现自己的目标。任何聪明的代理都将尝试预期其他代理可能阻止其实现这些目标的行为,并采取措施确保它们仍然成功。在许多情况下,消除其他代理比确保他们的努力失败要容易得多。
例如,我的目标可能包括在乡间别墅里放一袋糖,这样我就可以在拜访时做煎饼,而不必每次都带所有成分。但是,如果我把它放在那儿,冬天很可能会被老鼠吃掉。我可能会采取各种措施来存储它更好,但老鼠是聪明和狡猾,并明确有一个平凡的机会,他们仍然会在实现成功的反正目标,所以有效的额外的预防措施是杀老鼠,他们得到机会之前尝试。
如果一个特定的强大AI的目标是做X;可能会理解,(某些?)人类实际上可能并不想要X,而是想要Y。它也可以很容易地推断出其中一些人可能会主动做一些阻止X的事情和/或试图关闭AI。做确保目标得以实现的事情几乎就是寻求目标的代理人所做的;在这种情况下,如果对于目标X而言,人类的存在并非绝对必要,那么消除人类就成为一种可靠的降低风险策略。这不是严格必要的,也可以采取其他各种预防措施,但是就像在我的老鼠的例子中一样,人类是聪明而狡猾的,很明显,他们仍然有可能成功实现自己的目标 目标(以便X不会像AI那样发生),因此有效的额外预防措施可能是在他们有机会尝试之前将其杀死。
这不一定是胡说八道。这完全取决于所施加的标准。想象一下以下内容。假设先进的AI系统旨在控制本地动植物(在某种圆顶内封闭的区域)的稳定性。它可以控制球顶下的压力,通过球顶的光量等,这些都可以确保最佳条件。现在,假设穹顶有各种物种,包括人类。值得注意的是,此类系统的简单实现如今已在使用。
鉴于人类往往会破坏和滥用自然资源以及污染环境,因此该系统可能会决定,降低给定物种(在这种情况下为人类)的种群长远来看可能会使整个生物群落受益。
相同的原则可能会全局应用。但是,这假定所有物种(包括人类)都受到同等对待,并且AI的最大目标是确保其“照顾”的生物群落的稳定性。如今人们在做这样的事情-为了保持平衡,我们控制某些物种的种群-狼,鱼,仅举几例。
我觉得关于AI消灭世界的大多数情况都属于以下两类之一:
要么
在(1)案例中,人们谈论AI正在变得“邪恶”,并将其归因于其他人类元素。我认为这主要是科幻小说,因此认为不值得进行认真的讨论。也就是说,我看不出有什么特别的理由假设一个人造智能-无论它是多么聪明的-必然表现得象一个人。
(2)的情况对我来说更有意义。这是一个想法,例如,人工智能可以控制核导弹的发射井,并因为它只是在做其工作而结束发射导弹,但却错过了人类可能会通过“常识”发现的东西”。因此是“ Intelligent but Dumb”的绰号。
这些都没有令我的非常惊人的,因为:(1)可能是虚构和(2)不涉及任何实际的恶意由AI意图-这意味着它不会被积极尝试欺骗我们,或解决任何安全切口等
现在,如果有人建立了一个AI并决定对其进行有意编程,那么它就可以发展出像人类一样的特征,例如傲慢,自我,贪婪等等……好吧,一切都没有了。
AI已经被用作武器-想想无人机。
我怀疑,如果“机器人占领世界”场景居中,则该可能性最高。中间步骤可以是“人类用机器人占领世界”。
这可能会误导某个地方。
我怀疑,目前看来还不确定。考虑到美国目前有8000架无人机。如果有800万怎么办?一小组能够控制他们的人可以占领整个世界。或控制舰队不同部分的小团体可能会互相对抗。它们不应该全部在美国-在美国拥有这个机队时,其他国家也将发展他们的机队。
顺便说一句,在我看来,世界接管是不现实的-军事领导人也许可以将人类飞行员换成无人机,这不是他们的工作。但是,“高层控制”,即确定,做什么,目标是谁,这些决定是他们永远不会从自己手中发出的。
紧接着,机器人没有长期目标。我们人类。
因此,我认为天网式的接管不是很现实,但切尔诺贝利式的“误解”是误解的命令,这种情况导致舰队不可阻挡地横冲直撞,在我看来并非不可能。