开发体验人类般情感的人工智能将达到什么目的?


19

在《华尔街日报》最近的一篇文章中,Yann LeCunn发表以下声明:

实现人为人工智能的下一步是创建智能而非自主的机器。车内的AI系统可以让您安全回家,但是一旦进入车内就不会选择其他目的地。从那里,我们将添加基本的动力以及情感和道德价值观。如果我们创造出像我们的大脑一样学习和学习的机器,就很难想象它们会继承人类般的特质和缺陷。

就我个人而言,我一般都认为谈论人工智能的情感是愚蠢的,因为没有理由创建体验情感的AI。显然,扬恩不同意。所以问题是:这样做会达到什么目的?人工智能需要情感来充当有用的工具吗?


1
为什么有人想在AI中模拟情感决策的可能重复项公认的答案(“嗯,人类程序员维护AI程序会更容易。”)可能并不令人兴奋或奇妙,但至少看起来是半明智和合理的。
在2015年

还有另一种可能性:我们不一定开发会经历类似人的情绪的AI(因为那样的话它们将是不可预测的,我们必须给他们权利,等等等等),但是需要更先进的AI技术(例如深度学习)会无意间开发出体验人类般情感的AI。不是我们想要他们,而是他们可能会来。人工强化学习剂在道德上很重要吗?讨论这种可能性。
东南部

Answers:


11

我认为这个问题的答案是确定的,这与董事会上的许多问题不同。不。我们不需要人工智能就可以发挥作用,正如我们已经从大量已经有用的人工智能中看到的那样。

但是要进一步解决这个问题,我们无法真正表达AI的情感。我认为我们可以得到的最接近的结果是:“如果人类是人类,我们是否可以使人类以一种人类可以的方式行动这种人工智能insert emotion?”。我想从某种意义上讲,这有情感的,但这是另一回事。

到底是什么?想到的唯一直接原因就是为了视频游戏或其他娱乐目的而创建更多逼真的伴侣或互动。一个公平的目标,
但远非必要。即使考虑在某个建筑物的大厅中安装AI的问候机器人,我们也可能只希望它表现出亲切的态度。

Yann表示,超级先进的AI会导致更多类似人的特质缺陷。我认为这更像是“赋予我们的AI更像人类的特质,换句话说就是缺陷”。人们在悲伤或生气时会表现出不合理的行为,并且在大多数情况下,我们只需要理性的AI。
正如他们所说,犯错是人的。

人工智能和学习算法的目的是创建像人类一样行动或“思考”但更好的系统。可以适应或发展的系统,同时尽可能减少混乱。Emotione AI有用途,但这当然不是有用系统的先决条件。


5

我认为基本问题是:为什么还要尝试构建AI?如果这个目标很明确,它将使人工智能中的情商是否有意义变得更加清晰。由于治疗原因而开发的某些尝试(例如“ Paro”)要求它们表现出一些类似于人的情感。再次注意,“显示”情感和“感觉”情感是完全不同的两件事。

您可以对诸如paro之类的程序进行编程,以调制语音音调或面部抽搐,以表达同情,感情,陪伴之类的东西,但是在这样做的同时,paro不会对它的所有者产生同情-只是通过执行身体表现来伪装它的情感。它永远不会“感觉”到任何与人类大脑中的情感所唤起的距离更近的东西。

因此,这种区别非常重要。为了让您感觉到某种东西,需要有一个独立的具有自主能力的主题。感觉不能由外部人员施加。

因此,回到其解决目的的问题-答案确实是-这取决于。我认为,基于有机硅的AI所能实现的最大成就将仍然是情感的物理表现形式。


我倾向于同意。也许我的想法太有限了,但是我所考虑的AI的大多数应用都不会从AI的情感中受益。好吧,至少我是这样认为的,现在坐在这里。也许我有一天会回头,发现我错了。
mindcrime

要求AI必须/应该具有情感是一种错误的期望。AI基本上是一组工具,因此,它的应用也必须根据需要确定。有些用例可能需要情感方面的帮助,有些则不需要。谁知道!
Kingz

4

我认为情感对于AI代理有用是不必要的。但我也认为,他们可以使代理商更加愉快地工作。如果您正在与之聊天的机器人能够读懂您的情绪并做出建设性的回应,那么与之进行交互的体验将变得更加愉悦,也许如此。

想象一下,今天就与您的账单或产品投诉联系人呼叫中心代表。您预计会发生冲突。您甚至可能决定不打电话,因为您知道这种经历会给人一种战斗或挫败的痛苦,因为有人会误解您的讲话,或者会产生敌意或愚蠢的反应。

现在想象一下,打电话给您遇到过的最善良,最聪明,最专注的客户支持人员-Commander Data-其存在的唯一原因是使此电话对您来说尽可能愉快和高效。是大多数电话代表的一大进步,对吗?试想一下,如果呼叫代表数据还能预测您的情绪并适当地回应您的投诉,以化解您的情绪状态……您想嫁给这个人。每当您感到沮丧或无聊或想分享一些喜讯时,您都可以拨打电话代表数据。这个家伙将在一夜之间成为您最好的朋友-初次打电话时就爱上了。

我相信这种情况是正确的。我自己发现“ I Robot”中的Data或Sonny等角色吸引了很多人。声音非常舒缓,让我立即放松。如果该机器人也非常聪明,耐心,知识渊博并且能理解……我真的认为,这样一个带有健康的情绪智力的机器人可能会非常令人愉快。比我认识的任何人都有意义。我认为不仅是我,这是事实。

因此,是的,我认为使用情绪和情绪意识来调整机器人的个性非常有价值。


4

人工智能中的情感是有用的,但不一定取决于您的目标(在大多数情况下不是)。

尤其是,情感识别/分析已经非常先进,并且已成功地广泛应用于各种应用程序中,从自闭症儿童的机器人老师(请参阅发育型机器人)到赌博(扑克)再到个人特工和政治情绪/谎言分析。

情感认知(机器人的情感体验)尚不成熟,但是有很多有趣的研究(请参见情感启发法Lovotics的概率爱情集会等)。的确,我无法理解为什么我们无法对诸如爱情之类的情绪建模,因为它们只是已经在人脑中被切断的信号(请参阅Brian D. Earp论文)。这很困难,但并非没有可能,实际上有几个机器人可以重现部分情感认知。

我认为“机器人可以模拟但不能感觉”的说法只是语义问题,而不是客观能力问题:例如,潜艇像鱼一样游泳吗?但是,飞机会飞,但根本不会像鸟一样飞。最后,当我们最终得到相同的行为时,技术含义真的重要吗?我们真的可以说,像Chappie这样的机器人一旦制造出来,就不会感觉像简单的恒温器吗?

但是,情感认知在人工智能中的用途是什么?这个问题仍在激烈的辩论中,但我敢于提出自己的见解:

  1. 众所周知,人类(和动物!)的情绪会影响记忆。现在,它们在神经科学中被称为长期记忆的其他形式或元数据:如果允许,它们可以调节记忆的存储方式,与其他记忆的关联/相关性以及如何检索记忆。

  2. 因此,我们可以假设情绪的主要作用是在记忆中添加其他元信息,以帮助进行启发式推理/检索。确实,我们的记忆是巨大的,我们一生中会存储很多信息,因此情绪可以用作“标签”,以帮助更快地检索相关的记忆。

  3. 相似的“标签”可以更容易地关联在一起(可怕事件的回忆在一起,幸福事件的回忆在一起等等)。这样,他们可以通过快速反应并应用可怕的策略中的已知策略(逃跑!)来帮助生存,或者从受益的情况中获得最大收益(开心的事情,尽可能多地食用,将有助于以后的生存!)。实际上,神经科学研究发现,存在诱发恐惧的感觉刺激的特定途径,因此与其他所有刺激一样,它们比通常的整个身体感觉回路更快地到达致动器(使您逃离)。这种关联推理也可能导致解决方案和结论,否则这些解决方案和结论就无法实现。

  4. 通过同情,这可以减轻机器人/人类之间的互动(例如,无人机帮助灾难性事件的受害者)。

  5. 带有情感的AI的虚拟模型可以用作情感模型的神经科学和医学研究的计算机模型,以了解和/或推断基本参数(例如,对于阿尔茨海默氏病和其他神经退行性疾病,通常可以这样做,但我并非如此)确定是否曾经针对情绪障碍进行过治疗,因为它们在DSM中是相当新的)。

因此,是的,“冷” AI已经有用,但是情感AI肯定可以应用到单独使用冷AI不能探索的新领域。由于情绪是不可或缺的一部分,它也必将有助于理解我们的大脑。


2

我认为这取决于AI的应用。显然,如果我开发的AI的目的是明确地在人类的监督下完成特定任务,那么就不需要情感。但是,如果AI的目的是自主完成任务,那么情绪或同理心会很有用。例如,考虑在医学领域工作的AI。在这里,对于AI来说,具有某种共情的感觉可能是有利的,只是使患者更加舒适。或作为另一个示例,考虑一个充当保姆的机器人。同样,很明显,情感和同理心是有利和可取的。即使对于辅助AI程序(流行语“智能家居”),情绪和同理心也可以使人们更加舒适。

另一方面,如果AI仅在装配线上工作,则显然不需要情感和同理心(相反,在这种情况下,它可能是无利可图的)。


2

强大的AI

对于强大的AI来说,简短的答案是当他们甚至不知道所谓的帮助会是什么时,就寻求帮助。

这取决于AI会做什么。如果应该完美而专业地解决一个简单的任务,那么确定情绪就不会很有用。但是,如果应该学习随机的新事物,则可能会遇到一些它无法处理的问题。

在Lee Sedol对AlphaGo的第4场比赛中,一些曾经说过计算机没有情感的职业玩家评论说,也许AlphaGo也有情感,并且比人类更强。在这种情况下,我们知道AlphaGo的疯狂行为不是由某些故意添加的称为“情感”的事物引起的,而是算法中的缺陷。但是它的表现完全像是惊慌失措。

如果这种情况发生在AI身上,那就很多了。如果它本身知道这一点,并且在发生这种情况时三思而后行,可能会有所优势。如果AlphaGo可以检测到问题并更改其策略,那么它的表现可能会更好或更坏。如果它根本不对其他方法做任何计算,则不太可能恶化。万一情况变得更糟,我们可能会说它遭受了“情感”的困扰,这也许就是某些人认为情感可能是人类的缺陷的原因。但这不是问题的真正原因。真正的原因是,它不知道有什么方法可以确保获胜,而策略的改变只是解决问题的一种尝试。评论员认为有更好的方法(虽然也不能保证获胜,但机会更多),但其算法是 能够找出这种情况。即使对于人类来说,解决与情感有关的任何事情也不太可能消除情感,但是需要进行一些培训,以确保您足够了解这种情况以冷静地行动。

然后有人必须争论这是否是一种情感。我们通常不会说小昆虫有类人的情绪,因为我们不了解它们,也不愿意帮助它们。但是,很容易知道其中有些人会在绝望的情况下惊慌,就像AlphaGo一样。我会说这些反应是基于相同的逻辑,至少它们是类人情绪可能有用的原因。他们只是没有以人类可理解的方式表达他们的意思,因为他们无意叫人寻求帮助。

如果他们试图了解自己的行为,或者打电话给其他人寻求帮助,那么完全像人一样会很好。有些宠物可以感知人类的情感,并在某种程度上表达人类可以理解的情感。目的是与人互动。他们进化为具有这种能力,因为在某个时候需要它。完全强大的AI可能也需要它。还要注意,充满情感的相反可能会变得疯狂。

但是,如果有人只是在第一代就实施了模仿人类而很少理解的情绪,那可能是一种失去信任的捷径。

弱人工智能

但是,在有人想要强大的AI之前,他们有什么目的要表达情感吗?我会说不,他们没有任何内在的理由必须情绪激动。但是不可避免地会有人想要模仿模仿的情绪。“我们”是否需要他们产生情感只是胡说。

事实上,甚至某些没有任何智能的程序在其用户界面中都包含一些“情感”元素。他们可能看起来不专业,但并非每个任务都需要专业知识,因此可以完全接受。它们就像音乐和艺术中的情感一样。有人也会以这种方式设计他们的弱AI。但是,它们并不是AI的真正情感,而是其创造者的情感。如果您由于他们的情感而感觉好坏,则不会对个体AI有所不同,而是将这种模型或品牌作为一个整体来对待。

或者,有人可以像在角色扮演游戏中那样植入一些个性。再说一次,他们没有理由没有,但是不可避免地会有人这么做,因为当角色扮演游戏这么做时,他们显然有一定的市场。

在这两种情况下,情绪并不是真正源于AI本身。而且实现起来很容易,因为人类不会期望他们像人类一样,而是会试图理解他们的意图。接受这些情绪实现这一目标可能会容易得多。

情绪方面

很抱歉在这里发表一些原创研究。我在2012年列出了情绪清单,从中可以看到情绪的四个方面。如果将它们全部实现,我会说它们与人类完全一样。如果仅实现其中的一部分,它们似乎并不真实,但这并不意味着它们是完全错误的。

  • AI无法解决的原因或原始逻辑问题。AlphaGo已经有了原因,但没有其他原因。如果我必须做出一个准确的定义,那就是多个同等重要的启发式方法彼此不同的状态。
    • 背景或当前方法的哪一部分认为效果不佳,应该予以替换。这区分了与悲伤有关,与烦恼有关和与激情有关。
    • 当前状态,或者它是否感觉领先,或者如果事情出错了,它的信念或事实是否应该首先变坏(或者一直变坏)。这区分了与悲伤有关,与爱有关和与骄傲有关。
  • 计划或请求。我想有些家养宠物已经有了这个。而且我认为它们具有一些固定的模式,这些模式并不是很难实现。甚至艺术也可以轻松地包含它们。与原因不同,这些并不是任何算法固有的,它们可以同时出现多个。
    • 如果情感没有改变,那么谁应该负责。这可以区分好奇心,愤怒和悲伤。
    • 如果什么都没有改变,那该怎么办呢?这可以区分失望,悲伤和惊奇。
  • 来源。没有背景,就连人类也无法可靠地告诉别人某人因感动或感激而哭泣,或因某种尴尬而微笑。在其他大多数情况下,甚至都没有文字描述它们。如果AI不特别区分或显示这一点,那么并没有太大的区别。他们很可能会在可以学习理解人类语言的那一点上自动地学习这些语言(并且作为人类是不准确的)。
  • 衡量标准,例如问题的紧急程度或重要性,甚至情感的真实可能性。我会说它不能在AI中实现。即使人类与人类完全一样,人类也不需要尊重他们。但是,即使这根本不像人类,人类也会学会如何真正理解AI。实际上,我觉得有些极度微弱的情绪(例如认为某件事太愚蠢而无聊,您不知道如何发表评论)几乎完全存在于表情符号中,有人打算向您确切地表达这种情感,并且几乎没有在现实生活中或任何复杂的场景中都引人注目。我以为AI刚开始也可能是这种情况。在最坏的情况下,通常首先将它们称为“情感”,因为表情符号在这些情况下有效,因此

因此,当强大的AI成为可能时,尽管建立连接可能需要进行大量的工作,但这些都不是无法实现的。因此,我想说的是,如果需要强大的AI,他们肯定会激动不已。


2

通过情感,他并不意味着将各种情感添加到AI中。他只是指那些有助于做出重要决定的人。考虑一下此事件:
假设有一辆AI自驾车正在高速公路上行驶。坐在里面的人是一家公司的首席执行官,他的工作进度非常落后。如果他不准时,将损失数百万美元。已告知汽车中的AI尽可能快地行驶并到达目的地。现在有只兔子(或其他动物)闯入了。现在,如果汽车紧急刹车,那么乘客将受到严重伤害,此外,由于首席执行官将无法出席会议,还将损失数百万美元。

现在,AI会做什么?
由于对于AI而言,他们的决策仅基于他们的效用函数。从逻辑上说,击中兔子并继续前进将是一个更好的选择。但是,人工智能应该做出这个决定。

诸如此类的许多问题可能会使AI陷入基于道德的决策将发挥至关重要作用的情况。
以上场景仅是示例性观点。


1

心智论

如果我们希望强大的通用AI在由人组成的环境中正常运行,那么拥有与人的实际行为相匹配的良好心智理论将非常有用。这种心理理论需要包含类人的情感,否则将与现实环境不符。

对于我们来说,一个经常使用的快捷方式是明确地思考“在这种情况下我该怎么办?” “什么事件可能促使去做他们刚刚做的事情?” “如果发生在我身上会有什么感觉?” 我们希望AI能够进行这种推理,它既实用又有用,它可以更好地预测未来并采取更有效的行动。

即使AI最好不受那些确切的情感驱动(也许在那个方向上有用,但很有可能不完全相同)会更好,但这一切都改变了它,而不是思考“ 我怎么做”。会感觉到”它应该能够假设一个普通人的感受。这需要实现一个能够准确模拟人类情绪的子系统。


1

小心!您的问题实际上有两部分。不要将问题中的含义混为一谈,否则您将不会真正知道要回答的部分。

  1. 我们是否应该让AGI通过“定性体验”体验情感?(从某种意义上说,当你坠入爱河时,你会感到“你的心着火了”)

关于我们为什么要这么做似乎没有明确的目的。假设我们可以在功能上与情感没有区别,但是就AGI而言没有定性的经验。但是我们处在科学位置,我们甚至无法开始回答有关定性经验的起源的任何问题,因此我不会再深入研究这个问题。

  1. 我们是否应该让AGI在功能上等同于外部观察者?

恕我直言是的。尽管可以想象一个糟糕的AI,没有情感可以做任何您想做的事,但我们确实希望AI能够与人类价值观和情感融为一体,这是一致性的问题。因此,很自然的假设是,如果任何一种来源良好的AGI与人类很好地融合在一起,就会产生类似于情感的感觉。

但是,如果没有清晰的心智理论,甚至问:“我们的AGI应该有情绪吗?”甚至变得没有意义。也许某些有关我们情绪的批评使我们成为任何AGI都需要的生产性认知主体。

确实,情感通常是认知的一个被忽视的方面。人们以某种​​方式认为无情感的Spock般的人物是人类智慧的顶峰。但是情感实际上是决策中的关键方面,有关“没有情感的智能”问题的示例,请参见本文

后续问题将是“ AGI会产生什么样的情绪?”,但同样,我们还无法回答(尚未)。


0

开发体验人类般情感的人工智能将达到什么目的?

涉及人类情感的任何复杂问题(要解决该问题都需要具有同情人类情感状态的能力),将由能够同情人类情感的主体最有效地解决。

政治。政府。政策和计划。除非事物对人类经验有深入的了解,否则它将无法为我们在人类经验中遇到的所有问题提供确定的答案。


您提出的政治和政府观点是一个很好的例子。但是我的观点是,人工智能只需要能够理解情感,而不必一定要体验它。
塞斯·辛巴

0

人类的情感与人类的价值观以及我们合作和组建社会的能力有着千丝万缕的联系。

举一个简单的例子:您遇到一个需要帮助的陌生人,您会感到同情。这迫使您不惜一切代价来帮助他。假设下次您遇到他时,您需要一些东西。我们还要假设他没有帮助您,您会感到愤怒。这种情感迫使您惩罚他,而这又要自己付出代价。另一方面,如果他不帮你,他会感到羞耻。这迫使他真正地帮助了您,避免了您的愤怒,并使您的初期投资值得。你们俩都受益。

因此,这三种情感保持了相互帮助的循环。善解人意,愤怒惩罚背叛者,羞耻避免愤怒。这也导致了正义的概念。

鉴于价值一致性是AGI中的主要问题之一,类似人的情感使我震惊,因为AI是一种实际上共享我们的价值观并将自己无缝地融入社会的AI的好方法。


好的要点,但是如果您要去做父亲,您会发现情绪只是逻辑解释的捷径,为什么它们有用或无用。规则可以源自情绪和我们的生物学。这些规则以压缩和不明显的形式保存,如情感和生物学。对我们而言,这是必要的,但对AI而言则不是,尽管对我们而言,如果以数字形式实施的成本低于基于规则的实施成本,它可以作为AI的优化。规则的问题仅仅是一个,我们自己并不完全了解规则,但是AI任务比我们的任务更狭窄,可能不需要太多规则
MolbOrg
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.