强大的AI
对于强大的AI来说,简短的答案是当他们甚至不知道所谓的帮助会是什么时,就寻求帮助。
这取决于AI会做什么。如果应该完美而专业地解决一个简单的任务,那么确定情绪就不会很有用。但是,如果应该学习随机的新事物,则可能会遇到一些它无法处理的问题。
在Lee Sedol对AlphaGo的第4场比赛中,一些曾经说过计算机没有情感的职业玩家评论说,也许AlphaGo也有情感,并且比人类更强。在这种情况下,我们知道AlphaGo的疯狂行为不是由某些故意添加的称为“情感”的事物引起的,而是算法中的缺陷。但是它的表现完全像是惊慌失措。
如果这种情况发生在AI身上,那就很多了。如果它本身知道这一点,并且在发生这种情况时三思而后行,可能会有所优势。如果AlphaGo可以检测到问题并更改其策略,那么它的表现可能会更好或更坏。如果它根本不对其他方法做任何计算,则不太可能恶化。万一情况变得更糟,我们可能会说它遭受了“情感”的困扰,这也许就是某些人认为情感可能是人类的缺陷的原因。但这不是问题的真正原因。真正的原因是,它不知道有什么方法可以确保获胜,而策略的改变只是解决问题的一种尝试。评论员认为有更好的方法(虽然也不能保证获胜,但机会更多),但其算法是 能够找出这种情况。即使对于人类来说,解决与情感有关的任何事情也不太可能消除情感,但是需要进行一些培训,以确保您足够了解这种情况以冷静地行动。
然后有人必须争论这是否是一种情感。我们通常不会说小昆虫有类人的情绪,因为我们不了解它们,也不愿意帮助它们。但是,很容易知道其中有些人会在绝望的情况下惊慌,就像AlphaGo一样。我会说这些反应是基于相同的逻辑,至少它们是类人情绪可能有用的原因。他们只是没有以人类可理解的方式表达他们的意思,因为他们无意叫人寻求帮助。
如果他们试图了解自己的行为,或者打电话给其他人寻求帮助,那么完全像人一样会很好。有些宠物可以感知人类的情感,并在某种程度上表达人类可以理解的情感。目的是与人互动。他们进化为具有这种能力,因为在某个时候需要它。完全强大的AI可能也需要它。还要注意,充满情感的相反可能会变得疯狂。
但是,如果有人只是在第一代就实施了模仿人类而很少理解的情绪,那可能是一种失去信任的捷径。
弱人工智能
但是,在有人想要强大的AI之前,他们有什么目的要表达情感吗?我会说不,他们没有任何内在的理由必须情绪激动。但是不可避免地会有人想要模仿模仿的情绪。“我们”是否需要他们产生情感只是胡说。
事实上,甚至某些没有任何智能的程序在其用户界面中都包含一些“情感”元素。他们可能看起来不专业,但并非每个任务都需要专业知识,因此可以完全接受。它们就像音乐和艺术中的情感一样。有人也会以这种方式设计他们的弱AI。但是,它们并不是AI的真正情感,而是其创造者的情感。如果您由于他们的情感而感觉好坏,则不会对个体AI有所不同,而是将这种模型或品牌作为一个整体来对待。
或者,有人可以像在角色扮演游戏中那样植入一些个性。再说一次,他们没有理由没有,但是不可避免地会有人这么做,因为当角色扮演游戏这么做时,他们显然有一定的市场。
在这两种情况下,情绪并不是真正源于AI本身。而且实现起来很容易,因为人类不会期望他们像人类一样,而是会试图理解他们的意图。接受这些情绪实现这一目标可能会容易得多。
情绪方面
很抱歉在这里发表一些原创研究。我在2012年列出了情绪清单,从中可以看到情绪的四个方面。如果将它们全部实现,我会说它们与人类完全一样。如果仅实现其中的一部分,它们似乎并不真实,但这并不意味着它们是完全错误的。
- AI无法解决的原因或原始逻辑问题。AlphaGo已经有了原因,但没有其他原因。如果我必须做出一个准确的定义,那就是多个同等重要的启发式方法彼此不同的状态。
- 背景或当前方法的哪一部分认为效果不佳,应该予以替换。这区分了与悲伤有关,与烦恼有关和与激情有关。
- 当前状态,或者它是否感觉领先,或者如果事情出错了,它的信念或事实是否应该首先变坏(或者一直变坏)。这区分了与悲伤有关,与爱有关和与骄傲有关。
- 计划或请求。我想有些家养宠物已经有了这个。而且我认为它们具有一些固定的模式,这些模式并不是很难实现。甚至艺术也可以轻松地包含它们。与原因不同,这些并不是任何算法固有的,它们可以同时出现多个。
- 如果情感没有改变,那么谁应该负责。这可以区分好奇心,愤怒和悲伤。
- 如果什么都没有改变,那该怎么办呢?这可以区分失望,悲伤和惊奇。
- 来源。没有背景,就连人类也无法可靠地告诉别人某人因感动或感激而哭泣,或因某种尴尬而微笑。在其他大多数情况下,甚至都没有文字描述它们。如果AI不特别区分或显示这一点,那么并没有太大的区别。他们很可能会在可以学习理解人类语言的那一点上自动地学习这些语言(并且作为人类是不准确的)。
- 衡量标准,例如问题的紧急程度或重要性,甚至情感的真实可能性。我会说它不能在AI中实现。即使人类与人类完全一样,人类也不需要尊重他们。但是,即使这根本不像人类,人类也会学会如何真正理解AI。实际上,我觉得有些极度微弱的情绪(例如认为某件事太愚蠢而无聊,您不知道如何发表评论)几乎完全存在于表情符号中,有人打算向您确切地表达这种情感,并且几乎没有在现实生活中或任何复杂的场景中都引人注目。我以为AI刚开始也可能是这种情况。在最坏的情况下,通常首先将它们称为“情感”,因为表情符号在这些情况下有效,因此
因此,当强大的AI成为可能时,尽管建立连接可能需要进行大量的工作,但这些都不是无法实现的。因此,我想说的是,如果需要强大的AI,他们肯定会激动不已。