是否已经开发出任何可以故意欺骗/欺骗人类的AI系统?


11

当今的AI系统是功能强大的机器,最近,自然语言处理和响应领域以及AI机器的基本算法结构都在不断创新。

我想问的是,鉴于这些最新的突破,是否开发出了能够(最好以某种程度的成功)向人类撒谎的人工智能系统(已知具有某种事实)?

请注意,我要问的内容超出了图灵测试的规范讨论范围。我问的机器可以“理解”事实,然后根据这个事实制定一个谎言,也许利用其他事实来产生可信的“掩盖”作为谎言的一部分。

EG:CIA超级计算机被间谍偷走了,他们试图用计算机来做事,但是计算机一直在说它丢失了依赖项,尽管它实际上不是,或者是故意提供看起来正确但错误的答案。或给人错误的位置,知道该人常去某个地方,但此刻不在。当然,不必这么复杂。

Answers:


10

周六论文:AI对您撒谎吗?是一篇博客文章,总结了一篇名为《观察,说出,误记和说谎的角色走向》的研究论文。该研究论文详细介绍了一些研究人员计划为视频游戏中的NPC实施“心理模型”。NPC将收集有关世界的信息,并将该知识传达给其他人(包括人类玩家)。但是,他们也会“误记”该知识(或者“变异”该知识或只是忘记了它),甚至撒谎:

随着对话话题的发展,角色可能会向对话者传达虚假信息,更确切地说,是她本人不相信的信息。当前,根据角色对对话者的亲和力,概率性地发生这种情况,并且错误信息是随机选择的。

稍后在研究论文中,他们详细介绍了自己的说谎计划:

目前,谎言只存储在接收角色的知识中,但是我们计划让角色告诉他们也跟踪他们,以便他们在构造后续谎言时可以推断过去的谎言。虽然角色目前只说谎于其他角色,但我们计划也实施以自我为中心的撒谎(DePaulo 2004),例如,关于职位名称或与其他角色的关系说谎的角色。最后,我们设想角色发现他们被骗来改变他们对撒谎者的亲和力,甚至面对他们。

该研究论文还详细介绍了其他视频游戏开发商如何尝试创建说谎的NPC,并着重于他们的系统的不同之处:

TALE-SPIN字符可能彼此说谎(Meehan 1976,183-84),尽管像我们当前的系统实现那样是任意的。GOLEM实施了一个积木世界变体,其中特工欺骗他人以实现目标(Castelfranchi,Falcone和De Rosis 1998),而真相之口在图灵模仿游戏的一个变体中(De Rosis)使用角色信念的概率表示来加重特工欺骗等人,2003)。在克里斯蒂安(2004)中,欺骗计划者将不准确的世界状态注入到目标代理的信念中,以便她可以不知不觉地执行能够实现欺骗代理别有用心的行为。最后,Reis(2012)对FAtiMA的扩展中的特工使用了多种层次的心理理论来在派对游戏《狼人》中互相欺骗。尽管上述所有系统都展示了感知(在某些情况下还会欺骗)其他字符的字符,但似乎没有一个字符支持我们系统的以下关键组件:知识传播和内存易失性。...

像上面提到的其他一些系统一样,矮人要塞也具有自动撒谎的角色。当角色犯罪时,她可能会在证人的报告中错误地将其他人牵扯到警长那里,以保护自己,甚至构筑敌人。但是,这些见证人报告仅由玩家看到;角色之间不会互相提供虚假的证人举报。但是,例如,由于担心批评领导人会产生影响,他们可能会对自己的观点撒谎。最后,《矮人要塞》目前还没有对内存易失性问题进行建模。


2

如果您不希望通过一些琐碎的示例来满足您的答案,则必须提供更多有关使用“谎言”的背景信息:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

答案的复杂程度取决于您说“明知撒谎“知道”的意思从某种意义上说,上述“等于”函数“知道”输出与条件输出不同。

原则上,代理之间传递信息串是为了相互误导,这并不难实现。这样的行为可能在竞争性的多代理环境中自然而然地出现。参见进化的机器人学习互相说谎

换个角度看,您可能要问的是-绝对地具有操纵同情误导的能力,对于使用口头语言与人互动的机器人(尤其是尝试向他人出售东西的机器人)而言,是必不可少的技能。关于间谍和超级计算机-我只是冻结AI的程序状态。如果您具有代理状态的完整快照,则可以逐步遍历每个条件分支,检查是否有任何翻转或解释真相的分支。


1
AI行为可能以ANN的权重进行编码,从而使“单步执行每个条件分支”成为一项极为艰巨的任务。
NietzscheanAI

同意 但事实证明,代替其他选择,原则上可以安全地监视AI的对抗行为。
Doxosophoi

2

没有。

因为问题包括“明知”,这将要求任何AI都知道。如果这类似于人类了解事物的方式(尽管有趣的是,它不需要实际知道事物),则将需要某种个性感,自我意识,某种意识,表达意见的能力以及可能一些测试其知识的方法。大多数这些功能充其量只能说是充其量。

此外,术语“撒谎”意味着一种自我利益感,一种从博弈论的角度对资源流的独立理解,而不是琐碎地理解对会话中其他实体是否在撒谎的理解,以便使自己的行为成为现实。决策的准确性。因此,除了在其他答案中建议的琐碎场景中,任何AI都不会对任何人说谎,它们会基于某些上下文呈现虚假信息,这只是简单的输入/输出。

作为经验丰富的软件开发人员,我可以证明以下事实:如果目标是根据任何输入来呈现正确的输出,则呈现虚假信息实际上至少同样容易,即使不是那么容易。


1

是。

现在让我通过制作一个撒谎的AI进行演示。(python代码)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

还有一个骗人的:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI是一个如此笼统的名词。它可以用来描述几乎任何东西。您没有指定必须是通用AI。

人工智能无法思考。它们是计算机程序。他们没有灵魂或意志。只有程序员(或者如果它是通过进化来设计的…… 没有人,但是那是题外话)才可以有意识地对AI进行编程。

请注意,我要问的内容超出了图灵测试的规范讨论范围。我问的机器可以“理解”事实,然后根据这个事实制定一个谎言,也许利用其他事实来产生可信的“掩盖”作为谎言的一部分。

是的,这已经发生了。它被称为恶意软件。一些高级恶意软件会与您交谈,假装是技术支持并以常见的人为响应进行响应。但是您可能会说“嗯,这并不是真的'了解'”。但这很容易。神经网络+比地球上存在的CPU多的CPU(它将在几年内存在,并且可以负担得起)+一些示例响应=能理解和响应的神经网络AI(yo noggin中的同一件事)。

但这不是必需的。一个相对简单的神经网络,只有几个可以容纳在房间里的超级计算机,可以说服人类。不明白

所以真的

从技术上讲,不,但是有可能,如果您扩展规则,是的。

*或更简单:

print("1+1=3")

认证:我是一位对AI有所了解的程序员(请查看我的Stack Overflow帐户)。


1
这根本不是我在说的。这些程序执行明确编码的预定行为,并且不涉及人工智能。程序员可以为AI提供工具并教其如何撒谎。
阿维克·莫汉

@uoɥʇʎPʎzɐɹC“ AI无法思考”?您的意思是当前?毫无疑问,AGI的目标是模拟或区分我们定义为“思考”的内容,不是吗?我同意确定性算法无法思考。
dynrepsys'9

@AvikMohan有关系吗?AI是由行为来判断的,而不是行为的方式。
noɥʇʎԀʎzɐɹƆ

@dynrepsys您如何知道所有这些算法都是确定性的?您怎么知道您不确定?神经网络不是确定性的,在您的脑海中是一样的。
noɥʇʎԀʎzɐɹƆ

这里的行为是明确的和坚定的,并且是“懒惰” /“贪婪”的方法。我也在谈论行为,但只是“智能”行为。
阿维克·莫汉

0

是。

  1. 每个国际象棋游戏...每个扑克游戏。每场比赛。
  2. 每一种更智能的垃圾邮件软件或垃圾邮件发送器。尽管他们的主要目标是对计算机系统撒谎(例如垃圾邮件过滤器中毒),但他们的次要目标是对计算机系统背后的人撒谎。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.