无人驾驶汽车如何做出关于谁被杀的道德决定?


74

显然,自动驾驶汽车并不完美,因此,请想象一下Google汽车(例如)陷入困境。

以下是由一系列事件导致的不幸情况的一些示例:

  • 汽车正朝着10人横过马路的方向行驶,因此无法及时停车,但可以避免撞墙撞死10人(杀死乘客),
  • 考虑到汽车乘客的生存可能性更大,请避免杀死摩托车骑手,
  • 在街头杀害动物以利于人类,
  • 改变车道撞上另一辆车以避免杀死狗,

这里有一些难题:

  • 该算法是否可以识别人与动物之间的差异?
  • 人或动物的大小重要吗?
  • 它算不算前排有多少乘客?
  • 婴儿/儿童在船上时是否“知道”?
  • 是否考虑了年龄(例如先杀死年长的人)?

从技术角度来看,算法将如何决定应该做什么?是否意识到上述情况(计算出杀戮的可能性),还是不知道(杀害人,以避免其自身被摧毁)?

相关文章:


3
我不会乘坐任何设定为不让ME成为乘客头等大事的车辆。我并不孤单。如果有人计划迫使自动驾驶汽车制造商对汽车进行编程,以使其除了优先考虑乘客安全以外的其他工作,那么整个行业现在都可能关门大吉。乘客由于某种可恶的道德决定而死亡的前两次,将是绝大多数人最后一次购买另一辆自动驾驶汽车。谁想乘死刑陷阱?
Dunk

所谓的“台车问题”是一个棘手的问题。将其称为思想实验而非案例研究是有原因的:这从未发生过。它甚至还不接近真实,主要是因为汽车从根本上来说并不是手推车。在任何遥不可及的情况下,正确的答案几乎总是“踩刹车”,如果有例外,则只能以一种方式解决:通过不惜一切代价保护汽车居民,甚至不考虑其他任何事情。 ,有两个原因。
梅森惠勒

2
首先,@ Dunk涵盖得很好:实用主义。如果汽车有可能做出不同的选择,那么在他们心中没有人愿意购买。第二个问题是,如果在汽车的计算机中内置了“杀死所有人”功能,则意味着恶意黑客已经可以使用它来查找和滥用。权衡某人在对抗性输入中找出一种合理的手推车问题情况的纯粹虚拟构想来触发这种触发的方式的真正机会,而且只有一个可能的答案在道德上并不荒唐和可憎。
梅森惠勒

Answers:


54

无人驾驶汽车如何做出关于谁被杀的道德决定?

不应该这样 自动驾驶汽车不是道德行为者。汽车以可预见的方式失败。马以可预见的方式失败。

汽车正朝着10人横过马路的方向行驶,因此无法及时停车,但可以避免撞墙撞死10人(杀死乘客),

在这种情况下,汽车应猛踩刹车。如果十个人死了,那真是不幸。我们根本无法相信我们对车外发生的一切信念。如果那十个人是真正看起来像人的机器人怎么办?如果他们有什么想要杀你?

考虑到汽车乘客的生存可能性更大,因此避免杀死摩托车骑手,

再次,将这些类型的情感硬编码到车辆中,会使车辆的驾驶员受到各种攻击,包括“假”摩托车手。如果有的话,人类几乎没有能力自行做出这些决定。如果有疑问,请猛踩刹车。

为了人类而在大街上杀死动物,

同样,只是踩刹车。如果是婴儿怎么办?如果是炸弹怎么办?

改变车道撞向另一辆车以避免杀死狗,

不。狗在错误的时间放错了地方。另一辆车不是。尽可能安全地猛踩刹车。

该算法是否可以识别人与动物之间的差异?

是人类吗?不总是。如果人类有枪怎么办?如果动物有大牙齿怎么办?没有背景吗?

  • 人或动物的大小重要吗?
  • 它算不算前排有多少乘客?
  • 婴儿/儿童在船上时是否“知道”?
  • 是否考虑了年龄(例如先杀死年长的人)?

人类在这些事情上无法达成共识。如果您问警察在任何一种情况下该怎么办,答案不会是:“您应该向左转弯,称重所有相关方的脑袋,评估各方之间的相关年龄,然后稍微偏右,这样您就可以挽救8%的生命。” 不,警察只会说:“您应该尽快,安全地将车辆停下来。” 为什么?因为警察知道人们通常不具备应对高速坠机事故的能力。

我们“自动驾驶汽车”的目标不应是“与人类同等的道德行为者”。它应该是具有蟑螂反应性复杂性的药物,可预见的是它会失败。


在大多数情况下,潜在死亡的人比汽车/乘员更容易受到伤害-踩刹车似乎是唯一合理的反应,因为乘员也无法避免事故的发生。正如您所指出的那样,很有可能使用一种表现为(可能)杀死乘员而不是行人的算法来实际杀死乘员,甚至可能将责任归咎于乘员,汽车或制造商。
清晰的时间是

48

这些问题的答案取决于设备的编程方式。能够绕行并识别道路走向的计算机很可能具有从轮廓,图像或大小的角度上将人与动物区分开的能力。通过足够清晰的图像识别,它可能能够计算另一辆车中的人数和种类。它甚至可以使用有关不同类型车辆对人造成伤害的可能性的现有数据。

最终,人们不同意所涉及的道德选择。也许可以为用户/所有者配置“道德设置”,例如“仅考虑生命计数”与“年轻人的生命更有价值”。我个人认为,机器在伤害人类之前先损坏自己并不是非常有争议的事情,但是人们对宠物的生命重要性并不认同。如果明确的“先于先杀”设置使人们感到不安,则可以从提供给用户的调查表中确定答案。


2
我内心深处的某处认为,编辑伦理设置将是一个坏主意。除了它是一台机器而不是一个人的事实之外,我不确定这是什么,但我总是得出这样的结论:只要我们与其他任何人上车,我们就已经有了这种不成文的合同,即遵守人的道德决定。
2013年

6
“道德设置”?真?您会根据任何可能的偏见“杀害看起来____的人”同性恋来设置它。最不喜欢的种族?或者,如果发生碰撞的驾驶员中有两辆车的道德背道而驰怎么办?然后两者都被处决,还有额外的额外损失吗?就像道路法一样,这些法律必须具有普遍性(至少在一个国家内)。
navigator_

3
@navigator_我希望制造商提供的选项在合理范围内。
本N

1
原因是由谁定义的?这是我的意思。
navigator_

3
我实际上认为“道德设置”是唯一可行/公平的选择,因为它尽可能模仿特定​​的驱动程序。然后,汽车驾驶员应对所发生的一切情况负责,就好像他在驾驶一样。我看不出如何编程汽车(例如)将驾驶员的生命置于其他任何方面都不同于驾驶员将其生命置于其他任何事物上。
潘朵拉

26

我个人认为这可能是一个过分夸大的问题。仅在优化情况以防止出现“第三个选项”时,才会出现台车问题。

汽车有刹车,不是吗?“但是,如果刹车不起作用怎么办?” 好吧,那就根本不允许开车。即使在有规律的交通中,操作员也会被告知必须限制您的速度,以便您可以在可见区域内停车。诸如此类的解决方案将减少手推车出现问题的可能性。

至于动物……如果在旅途中没有明确的努力与人类打交道,我认为动物也会受到同样的对待。这听起来难以置信-道路交通事故经常发生,而人类的“道路交通事故”是不希望的,但动物比人类小得多,更难以看见,因此我认为发现人类会更加容易,从而避免了很多事故的发生。

在其他情况下(错误,行驶中的故障,彼此堆叠的多个故障),可能会发生事故,将对其进行分析,并对车辆进行更新以避免引起类似情况。


不能说AI只会驾驶得如此之快,以至于他们无法从看到的东西中停下来,这是错误的,因为即使防御性驾驶人类也是如此。原因是必须做出假设。当在山顶上攀登时,可以认为大障碍物并非视线之外[Source DARPA Grand Challenge]。这些假设基于确定哪些行动正确的道路规则。因此,如果发生事故,只要您遵守道路规则,就可以减少责任。因此,汽车必须能够做出这些决定,但可能以有限的方式做出(保护消费者)。
Harrichael

12

这是众所周知的台车问题。正如Ben N所说,人们对于手推车问题场景的正确做法持不同意见,但应该指出的是,对于无人驾驶汽车,可靠性是如此之高,以至于这些场景的可能性很小。因此,至少在短期内,您不会花太多精力在描述的问题上。


我想知道台车问题实际上到底有多适合?小车问题本质上是离散的,描述了“一劳永逸”的选择,而在实践中,该算法必须以(可能很小)的时间增量进行选择序列,可能会有新的信息可用。一种有用的算法可能是嵌入到实际3D空间中的“连续控制”问题,该问题处理速度和概率,而不是抽象的,离散的道德决策。如果没有其他要求,这将意味着不必以如此严格的道德术语来定义实现。
NietzscheanAI

1
@NietzscheanAI手推车问题的想法不是要做出什么决定,而是要做出什么决定。如果您考虑盗窃,人数,动物数量,过错的人,驾驶员的安全,更大的利益,最少的改变等。您仍然可以将概率应用于手推车问题,例如。路线A有30%的机会杀死10人。台车问题通常涉及两条路线,因此您可以更准确地考虑基于哪些因素做出道德决策。
Harrichael

11

在现实世界中,决策将基于法律做出,并且如Law.SE所述,法律通常主张无所作为胜于采取行动。


嗯,这对人类受害者很有意义。如果汽车能转向行人而不是行人撞到狗,法律的选择会有所不同吗?
本N

6

对于由单个实体设计的无人驾驶汽车,做出决定杀害谁的最佳方法是估算并最小化可能的责任。

它不需要绝对正确地识别该地区的所有潜在受害者来为自己的决定辩护,而只需识别他们和人类就可以了。

它甚至不需要知道车厢中每个人的年龄和身体状况,因为它可以询问该信息,并且如果被拒绝,其防御措施是乘客选择不提供该信息,因此承担了剥夺该信息的责任。做出更好决策的能力。

它仅需具有一个可行的模型,以最大程度地降低实体在诉讼中的风险,然后可以随着时间的推移对其进行改进以使其更具盈利性。


6

“这个拯救谁的道德问题:我们99%的工程工作是完全避免这些情况的发生。” —梅赛德斯·奔驰(Christoph-Benz)克里斯托普·冯·雨果(Christoph von Hugo)

该引言摘自2016年10月7日迈克尔·泰勒Michael TAYLOR)发表于2016年 11月8日的题为《无人驾驶奔驰将优先考虑乘员安全》的文章。

这里的摘录概述了解决该问题的技术,实际解决方案。

这个世界上最古老的汽车制造商再也无法解决这个问题了,该问题类似于1967年的“无轨电车问题”。梅赛德斯-奔驰并没有在危机中束缚自己的道德和道德纽带,只是打算对自动驾驶汽车进行编程,以挽救车内人员。每次。

据汽车制造商驾驶员辅助系统和主动安全经理说,梅赛德斯-奔驰未来所有的4级和5级自动驾驶汽车都将优先考虑挽救他们所载的人员。

那里的文章还包含以下引人入胜的段落。

科学》杂志在年中发布的一项研究也没有消除一切。1928年接受调查的大多数人认为,从伦理上讲,自动驾驶汽车牺牲乘员而不是撞向行人会更好。然而,大多数人还表示,如果汽车优先考虑行人安全,他们将不会购买自动驾驶汽车。


3

坦白说,我认为这个问题(台车问题)本质上过于复杂,因为现实世界中的解决方案可能非常简单。像人类驾驶员一样,将对AI驾驶员进行编程,使其始终以一种普遍的道德方式行事,始终选择无害或危害最小的行动方案。

如果AI驾驶员遇到财产损失之类的危险,显然,AI会用力制动,将汽车对准易碎物品,以避免或最大程度地减少冲击。如果危险击中了行人,汽车或建筑物,它将选择与可能发生的最珍贵或最便宜的物体相撞,以将危害降至最低-与建筑物或狗相比,对人的价值更高。

最后,如果您的汽车的AI驾驶员的选择是要让孩子跑过去或撞到墙壁……这将使汽车和您进入墙壁。那就是任何一个好人都会做的。好的AI为什么会有不同的表现?


1
如果这些是陈述,那么“ AI将努力刹车”,“它将选择与...相撞”,您能发表一些参考吗?还是基于意见?
kenorb '16

1
OP提出了一个问题,即“ AI将选择造成什么损害?”。我认为这是错误的目标。人类不会那样做。取而代之的是,AI将遵循更通用的策略来避免损坏,并尽可能减少损坏。当出现责任问题时,此优化目标更直观,也更难以争论。
兰迪

3

他们不应该。人们应该。

人们无法将道德决策的责任交到计算机手中。作为计算机科学家/人工智能专家,我们有责任为计算机制定决策程序。这样还会造成人员伤亡吗?当然,他们会-人不是完美的,程序也不是完美的。

有关于这一主题的优秀深入的辩论在这里。我特别喜欢Yann LeCun关于在患者身上测试潜在致命药物的平行伦理困境的论点。与自动驾驶汽车类似,两者都具有致命性,但从长远来看,它们有良好的意图挽救更多的人。


3

无人驾驶汽车如何做出关于谁被杀的道德决定?

通过管理法律责任和消费者安全。

提供消费者安全的汽车将是由所述消费者购买的汽车。公司既不希望为杀死自己的客户承担责任,也不希望出售会使用户陷入法律困境的产品。从“消费者成本”的角度来看,法律责任和消费者安全是同一个问题。

这里有一些难题:

  • 该算法是否可以识别人与动物之间的差异?

如果不能从法律上避免动物/人(并且汽车具有合法权利-如果不是,则AI的决策有其他问题),那么它就不会这样做。如果汽车可以安全地避开障碍物,则可以合理地认为AI可以做出此决定,即。转弯到空旷的高速公路上的另一条车道。请注意,这里强调责任和驾驶员安全。

  • 人或动物的大小重要吗?

只有来自危险因素的障碍。打河马可能不如打沟。打狗可能比破坏顾客的汽车更可取。

  • 它算不算前排有多少乘客?

它把人当作乘客,看是否可以乘搭拼车车道。它会将发生撞车事故的人视为危险因素。

  • 婴儿/儿童在船上时是否“知道”?

没有。

  • 是否考虑了年龄(例如先杀死年长的人)?

否。这仅仅是决策的错误抽象,如何权衡选择正确的行动方案以降低风险因素?如果选择1被击中,则有20%的重大乘员受损机会而没有法律责任的年轻人,而选择2被击中了具有21%的重大的乘员损害机会,而没有法律责任的老人,那么哲学家甚至可以说服一个人做出决定的公正和公平的权重?

值得庆幸的是,很多时候最好的决定是休息一下以降低速度(尤其是当您认为采取可预测的行动通常很有价值,这样行人和驾车者可以做出相应反应时)。同时,在预测驾驶员何时将做出错误的决定以及何时其他行动(例如,逆向行驶)比突破休息更有利时,可以实现更好的价值提高。在这一点上,甚至不开始收集信息以做出哲学家提出的道德决定是不值得的。因此,耸人听闻的新闻工作者和哲学家大肆宣传这个问题。


2

我认为在大多数情况下,汽车默认会以降低速度为主要选择,而不是转向或偏离特定选择。正如其他人提到的那样,进行与道德相关的设置只是一个坏主意。如果两辆以相反的道德设置编程并即将发生冲突的汽车会怎样?这些汽车可能具有一个覆盖用户设置并选择最互惠互利的解决方案的系统。这确实是一个有趣的概念,并且在广泛实施之前必须进行讨论和标准化。将道德决策交到机器手中,有时会难以想象由此产生的责任。


是的,制动以避免碰撞绝对是最好的解决方案。不幸的是,在某些情况下(问题所涉及的情况),碰到某些东西是不可避免的。您似乎同意一些现有的答案。请注意,我们希望每个答案都能独立存在。拥有足够的声誉后,您就可以提出您认为有帮助的答案。两辆配置相反的汽车的问题确实很有趣。如果您可以编辑答案以扩大其范围,那将是很棒的。谢谢!
本N

非常感谢您的答复,我真的很感激,并将继续在网站上使用它。我不知道答案的准则。
imhotraore '16

1

我认为没有办法在汽车中编辑此类道德设置。但是,嘿,如果可以扎根手机,为什么不开车呢?我想将来会有针对特定模型的Linux构建,这些模型可以让您做任何想做的事情。

至于谁来做出这样的决定,则就像今天的隐私问题。操作系统提供商(将尝试将其设置为受伤害的最低人数,每个人都有自己的方法),保险公司(将尝试使您付款)上的全面拉锯战操作系统的更多信息将在统计上显示出更容易损坏您的汽车),以及汽车制造商(他们希望您尽快将您的汽车报废,因此您将购买新的汽车;或者使需要可笑的汽车$$$服务金额)。

然后,一些举报者将会出来,并暴露出一段选择杀死年幼儿童的代码,因为这将使他们与动物区别开来更加困难,并且将有机会挽救那些肯定会被识别为人类的人。操作系统制造商将受到公众的欢迎,并将找到新的共识。举报人也将来自保险公司和汽车制造商。

人类会抓住热锅,自行燃烧,然后学会事先戴上手套。我的建议只是确保您不会那么做-远离它们几年,直到所有早期的错误都犯了。


1

唯一明智的选择是使用可预测的行为。因此,在面对汽车场景的人们中:首先,汽车踩刹车,同时鸣喇叭,然后继续行驶。这样,人民就有机会跳出一条路,导致零人被杀。同样,在全制动的情况下(从每小时50公里到零,少于3个车长),几乎无法想象会发生碰撞的情况。即使无法完全停车,也不会对行人造成严重伤害。

另一种情况是疯狂的。因此,距离必须小于3个车长,至少需要1个车长来进行转向,然后汽车撞车是无法控制的情况,可能导致旋转并杀死全部11人。

除了说我不相信,现实中还有一个两难的例子;在这种不太可能的情况下,解决方案是否要符合对方的期望,以使对方也能缓解这种情况。


能否请您仔细阅读Ben的第一个答案,然后尝试根据AI的含义来编辑您的答案!
quintumnia '02

您能具体点吗?我通读了bens的第一个答案,但看不到这有何关系。您能解释一下“什么是AI”吗?
lalala

我的意思是;要有关于AI的知识,所以您的答案可能会被否决或看不到; y下!
quintumnia '02

@quintumnia对我来说,这个答案似乎不错(+1)-仅继续尝试而不弯腰或做出决定是一个有效的选择。
本N
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.