人工智能可以在避免“道德上次优”选择的同时进行横向思考吗?


13

在最近的PC游戏The Turing Test中,AI(“ TOM”)需要Ava的帮助才能通过一些拼图室。汤姆说他不能解决难题,因为不允许他“ 横向思考 ”。具体来说,他说他不会想到要通过窗户扔一个盒子来解决第一个房间。故事发生了,他的创造者将这种能力关闭了,因为这种想法可能会产生“道德上次优”的解决方案,例如砍掉一条胳膊放在压力板上。

是否需要从AI中删除所有创造性的难题解决能力以保持其结果合理,或者我们可以在不失去优势的情况下获得横向思考的一些好处?

Answers:


17

但是。如果系统具有完整的道德体系,那么我们可以以创造性的方式解决道德问题,但是默认情况下,创新将是不安全的。

可以将AI决策方法分为两种类型:内插式思想家和外插式思想家。

内插式思想家学会对自己所学的东西进行分类和模仿,不要试图在他们的训练领域之外给出合理的结果。您可以将它们视为训练示例之间的插值,并且可以从所有数学保证和条件中受益,就像其他统计技术一样。

外推思想家学会操纵基本原理,这使他们能够以以前未曾考虑的方式将这些原理结合起来。直觉的相关领域是数值优化,其中最简单和最著名的例子是线性编程,而不是孕育机器学习的统计领域。您可以将它们看作是超出培训示例的推断(实际上,其中许多甚至不需要培训示例,或使用这些示例来推断基本原理)。

外推思想家的承诺是,他们可以比人们能够更快地想出这些“横向”解决方案。这些外推思想家的问题在于,他们只使用口头原则,而不是任何看起来似乎不容提及的潜规则。

优化问题解决方案的一个属性是,特征向量在某种程度上通常是“极端的”。在线性编程中,可行解空间的至少一个顶点将是最佳的,因此简单的求解方法可以找到最佳顶点(由于是顶点,这几乎是不可行的)。

再举一个例子,将航天器从一个位置移动到另一个位置的最小燃料解决方案称为“ 爆炸 ”,在这种情况下,您可以在轨迹的起点和终点尽可能快地加速飞行器,以介于两者之间的最大速度滑行。 。

虽然正确理解了系统的优点(在很多情况下,bang-bang 最佳的),但是如果错误地理解了系统,这将是灾难性的。我最喜欢的示例是Dantzig的饮食问题(讨论从pdf文件的第5页开始),他尝试使用数学优化饮食。在他的第一个约束条件下,他应该每天喝500加仑的醋。在他的第二个下方,有200个肉汤块。在他的第三下,两磅的麸皮。那些显然是坏主意的考虑因素并未纳入系统,因此系统无辜地建议了它们。

如果您可以将一个人用来判断这些计划的知识和价值完全编码到AI中,那么外推系统就和那个人一样安全。他们将能够考虑并拒绝错误的极端计划,并为您提供正确的极端计划。

但是,如果您做不到,那么不要建立一个外推决策者,而是建立一个内插决策者,这是有道理的。也就是说,与其自问“我如何最好地实现目标X”?它自问“在这种情况下一个人会做什么?”。后者在实现目标X时可能会更糟,但是牺牲其他目标来实现X的风险要小得多。


2

道德涉及两个或多个参与方之间的需求关系。正如马修·格雷夫斯(Matthew Graves)所说,如果AI缺乏足够的人文环境(对需求的理解),它将产生看似有害的道德行为。

老实说,有些会割断别人的手臂,然后把它们放在压力板上。即使是我们中最好的人,也无法100%地准确地满足他人的需求-我们猜测,充其量是这样。然后在某些罕见的情况下,我实际上希望您切断手臂并将其放在压力板上,也许是为了挽救亲人。

如果我们能有这样的可能有什么人同情的事情可能需要在任何给定任意的情况,那么我们将创造要么A)的人工人类智能(AHI)(这可能是或多或少地会犯错误,就像一个人),或B)可以以比人类时间尺度更快的速度推断出所有可能的人类需求的预言家-在这种情况下,您将不需要有意识的AI,因为可以通过正式规范预先计算所有人类的需求和解决方案,可能是荒谬的考虑。


0

您也可以将编程视为设计的道德部分。人工智能将根据其在伦理上是否重要的​​指示行事。它可能(甚至应该)是构成寻找解决方案过程的参数的一部分,从而可以提供更加完善和创新的解决方案。

我们了解正常情况下的道德基础,但是如果我们无法预测任何人在道德难题中的行为,我们可以执行AI不会做的事情。

只要我们能够控制驱动AI的机制,我们肯定有责任注入道德的故障保险。问题在于自学式AI具有覆盖指令的能力。(CF阿西莫夫法律。)

在这种情况下,AI的创造方式似乎无关紧要。


-1

这在很大程度上取决于考虑的广度。例如,横向思维的中期和长期影响是什么?机器人可以为压板切断手臂,但这将意味着该人不再有手臂,这在最大程度上是功能上的限制,该人可能会流血并死亡/受到严重约束,并且该人(以及一般)将不再合作,并有可能寻求消除机器人。人们可以进行横向思考,因为考虑了这些事情-道德实际上只不过是包含这些考虑因素的一套准则。机器人也可以设计成考虑这些外部性。

如果其他都失败了

阿西莫夫的机器人法则:(0。机器人可能不会伤害人类,或者无所作为会伤害人类。)1.机器人不会伤害人类,或者由于无所作为而不会伤害人类危害。2.机器人必须服从人类的命令,除非这些命令与第一定律相抵触。3.机器人必须保护自己的存在,只要这种保护与第一或第二定律不冲突

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.