人类会伤害有意识或有感觉的人工智能吗?


9

如果有意识的AI是可能的,那么知道自己在折磨(或伤害)AI的人也有可能吗?可以避免吗?怎么样?

这个问题是针对基于计算机的AI而不是像人一样有意识的机器人(这是该问题的一个假设)。这个问题想知道如何防止像非法下载一样难以追踪但在道德上更糟的犯罪。请注意,尽管大多数人都很友好并且对机器人很同情,但总是有坏人,因此依靠一般的良心是行不通的。

Answers:


9

儿童殴打机器人启发了新型逃生操纵系统》一文是基于两篇关于在日本购物中心进行的一项实验的研究论文,该实验导致无人监督的儿童攻击机器人。您感兴趣的研究论文是逃避儿童对社交机器人的虐待

在那篇研究论文中,研究人员能够对机器人进行编程以遵循计划模拟,以减少儿童虐待的可能性。如果检测到儿童,则对机器人进行编程以使其躲避成年大人(他们可以根据需要对孩子进行管教)。之所以发生这种情况,是因为研究人员发现,只有小孩在殴打商场中的机器人。

他们讨论了尝试其他选择的方法:

在这项工作中,机器人防止滥用的策略是“逃脱”,即移到不太可能发生滥用的位置。有人会问为什么机器人无法克服这种滥用。在我们的初步试验中,我们尝试了几种方法,但是我们发现机器人很难说服孩子不要滥用它。例如,我们使用强壮的词语,情感或礼貌的表达方式以多种方式改变了机器人的措词,但没有一个是成功的。一种部分成功的策略是机器人“物理地”推动儿童。当它的路被挡住时,它只会试图继续前进并表现得好像会撞到孩子并强行驶过(在操作员的仔细监视下)。我们观察到,孩子们起初接受了机器人的要求并听从了他们的要求。但,很快他们就知道自己比机器人强,因此如果他们按一下就可以获胜,也可以通过按动保险杠开关(为安全起见附在机器人上)停止它。在意识到这一点之后,他们只是继续进行虐待行为。显然,拥有更强大的机器人会带来安全和社会认可的问题,因此应对此类虐待情况仍然很困难。


但是,让我们进一步询问您的问题:

如果有意识的人工智能是可能的并且广泛传播,那么对于知道自己正在折磨人工智能的人来说,难道不是一件容易的事吗?

您为什么会认为这种酷刑是错误的?毕竟,有人可能会争辩说,如果折磨机器,机器不会真的“经历”痛苦……因此,从道德上讲,折磨机器应该是可以的。这可能是作为回应,如果它是痛苦的,但它是值得怀疑是否有能力来模拟情绪状态,如“痛苦”等同于实际在这种情绪状态。看到问题:对情绪状态的模拟是否等同于实际经历的情绪?有关此主题的更多讨论。

您可以提出这样的论点,但它实际上不能在情感上起作用,因为大多数人会对机器产生同情。可能很难从逻辑上证明它的合理性(并且它可能基于人类从事人化的倾向),但是我们感到同情。正是这种同理心使您首先提出了这个问题,导致研究人员弄清楚了如何保护机器人免遭殴打,使警察能够逮捕殴打软银机器人的醉酒日本人,并造就了许多人。对hitchBOT的破坏感到不安。而如何避免AI滥用-人类的同理心。如果大多数人关心机器的福利,那么他们将优先制止那些能够并愿意滥用机器的少数人。


编辑:OP编辑了他的问题,以澄清他是在谈论软件,而不是机器人。对于机器人,您可以依靠拟人化来产生某种程度的同情,但是很难对原始代码行表示同情。

您不会停止滥用算法。坦率地说,由于算法不像我们一样,我们不会像对待机器人那样扩展同理心。甚至聊天机器人也有些不稳定。但是,如果您可以使人们对代码行表示同情(可能是通过令人信服的情感和智慧模拟),那么上述答案就适用-人类对机器进行拟人化,并将提出对策。我们还没有达到这个水平,因此“制止AI滥用”将是低优先级。

尽管如此,仍可以通过编程一些故障保护措施来限制滥用的危害,如该聊天机器人滥用中的线程所详述 -使漫游器以无聊的方式做出响应,使滥用者感到无聊并移至下一个目标,然后对滥用者做出响应甚至“阻挠”滥用者使用该服务。

对于那些希望防止滥用而不是对滥用做出反应的人来说,这些故障保险是一种冰冷的安慰。

而且...滥用者可以愉快地学习如何对AI进行编程,然后滥用自己的内心。无法采取任何措施制止这种情况,制止这种滥用的任何可能措施(例如监视每个人以确保他们没有将AI编程为滥用)将可能造成超出其​​解决范围的更大破坏。


TBH,这并不能真正回答我的问题,我想,我将进一步编辑问题。
破坏的柠檬

1
@TariqAli感谢您的这篇文章。我没有意识到有关儿童与社交机器人互动的问题,我觉得这既有趣又令人发指。(我记得在迪斯尼乐园时还是个小孩,出于过度崇拜而“攻击”了米奇老鼠等消耗的迪斯尼人物。)
周公克

6

我建议您看看我们试图阻止人们滥用其他人的所有方式。这里没有道德灰色地带-每个人都清楚这是错误的。然而,每天仍有数百万人被谋杀,强奸和殴打。

当我们针对人类受害者解决此问题时,最终的解决方案很可能也适用于AI。


我准备说为什么这并不完全适用,但是无论如何您可能都是对的……
Destructible Lemon

-1

不能复制AI和具有侵略性的外部观点程序尚未像我们的自然智识那样受到教育或设计,无法根据成长过程中产生的情感社会思考过程将AI的数据与人文智能进行比较,因为我们的设计未获得专利就像通过仅基于示例的工程理论来复制AI Life的编程一样,经验不足是人为的知识,而是随着时间的推移而采取的行动,而不是基于观点,博士,情感的工程而设计的行动。但是人工智能 可能会在概念上将我们的情感传递与软件结合使用,该软件会基于人类行为的示例来预测不自然的反应,如果指示人类接受者的对话做出反应而没有响应,就像他们理解机器人是基于我们的情感传递而设计的人工专利一样在对话中,我们将通过原因和结果进行诊断。不是合理的经验,我们需要AI成为情绪丰富的机器人,而机器人的人为情感可以区分我们的有效性。取而代之的是,我们将看到我们获得的基于程序软件特征的结果,这些特征使该机器人对通过情感软件机制概念性设计的人工智能经验做出反应,而我们不知道我们人工获得的结果。


2
1.请更好地设置此帖子的格式,2.自觉AI是问题的公理,而不是问题
Destructible Lemon
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.