无人驾驶汽车如何做出关于谁被杀的道德决定?
不应该这样 自动驾驶汽车不是道德行为者。汽车以可预见的方式失败。马以可预见的方式失败。
汽车正朝着10人横过马路的方向行驶,因此无法及时停车,但可以避免撞墙撞死10人(杀死乘客),
在这种情况下,汽车应猛踩刹车。如果十个人死了,那真是不幸。我们根本无法相信我们对车外发生的一切信念。如果那十个人是真正看起来像人的机器人怎么办?如果他们有什么想要杀你?
考虑到汽车乘客的生存可能性更大,因此避免杀死摩托车骑手,
再次,将这些类型的情感硬编码到车辆中,会使车辆的驾驶员受到各种攻击,包括“假”摩托车手。如果有的话,人类几乎没有能力自行做出这些决定。如果有疑问,请猛踩刹车。
为了人类而在大街上杀死动物,
同样,只是踩刹车。如果是婴儿怎么办?如果是炸弹怎么办?
改变车道撞向另一辆车以避免杀死狗,
不。狗在错误的时间放错了地方。另一辆车不是。尽可能安全地猛踩刹车。
该算法是否可以识别人与动物之间的差异?
是人类吗?不总是。如果人类有枪怎么办?如果动物有大牙齿怎么办?没有背景吗?
- 人或动物的大小重要吗?
- 它算不算前排有多少乘客?
- 婴儿/儿童在船上时是否“知道”?
- 是否考虑了年龄(例如先杀死年长的人)?
人类在这些事情上无法达成共识。如果您问警察在任何一种情况下该怎么办,答案不会是:“您应该向左转弯,称重所有相关方的脑袋,评估各方之间的相关年龄,然后稍微偏右,这样您就可以挽救8%的生命。” 不,警察只会说:“您应该尽快,安全地将车辆停下来。” 为什么?因为警察知道人们通常不具备应对高速坠机事故的能力。
我们“自动驾驶汽车”的目标不应是“与人类同等的道德行为者”。它应该是具有蟑螂反应性复杂性的药物,可预见的是它会失败。