人工智能可以感觉到情绪吗?


9

假设人类终于开发出了第一个基于人脑的类人生物AI,它会感觉到情绪吗?如果没有,它还会有道德和/或道德吗?


4
这取决于您所说的“感觉情绪”。我问了一个类似的问题,模拟情绪状态是否等同于实际体验情绪?在Philosophy SE上,答案确实取决于“感觉”的定义(尤其是在处理“ Qualia”的概念时)。
东南部

在问题的最后一部分,如果它无法感觉到情感,则可能与其他拥有情感的人无关。不能(或不愿意?)考虑别人的感受是社会变态的第一迹象。一个社会变态者是否缺乏道德,或者仅仅是道德准则遭到破坏,这本身就是一个深层的问题,但足以说,无论哪种方式,他们最终都以自私的方式与他人打交道。在AI的情况下,这可能是前者的问题,缺乏道德意识(在人类的情况下,可能是后者),但结果是相同的
SQLServerSteve

机器无法根据人的判断做出决定。ai.stackexchange.com/questions/1354/…–
kvfi

看一下非常相关的问题:人工智能会受苦吗?能人工智能学会受苦呢?
nbro

Answers:


3

我已经考虑了这里的许多回答,并且建议这里的大多数人在回答有关情感的问题时都错了要点。

问题是,科学家们一直在寻找一种关于情绪是什么的单一解决方案。这类似于寻找适合所有不同形状插槽的单一形状。

同样,被忽略的是动物和我们一样具有情感和情绪状态的能力:

当在Youtube上寻找昆虫互相争斗,竞争或求爱时,很明显,简单的生物也会遇到它们!

当我向人们挑战情感时,我建议他们去哥林多前书第13章-它描述了爱的属性。如果您考虑所有这些属性,则应注意,实现这些属性并不需要实际的“感觉”。

因此,关于一个精神病患者缺乏情绪,因此他在“正常”范围之外进行犯罪或其他活动的建议远非事实,尤其是当人们考虑到法院案件和心理评估中留下的各种记录时,这种暗示就说明了我们他们确实是出于“强烈”的情绪而行动的。

应该考虑到,精神变态者的行为是出于消极情绪和情绪状态而引起的,他们明显缺乏或无视道德,无视良心。精神变态者“喜欢”他们的工作。

我强烈建议所有人,我们对自己的推理以及他人的推理视而不见。

虽然我同意之前提到的以下说法:-

戴夫H.写道:

从计算的角度来看,情绪代表了影响许多其他处理的全局状态。激素等基本上只是实现。如果有感觉的计算机或有智能的计算机以这种全局状态影响其思维的方式构造,则肯定会体验到情绪。

但是,他在其下方的推理(该报价)也存在严重缺陷。

情绪是主动的和被动的:它们是由思想触发的,它们触发了我们的思想;情绪是一种精神状态和行为品质;情绪对刺激有反应或衡量我们对刺激的反应;情绪是独立的调节者和主持人;但是,它们激发了我们对特定标准的关注和关注。当直觉和情感相吻合时,它们会帮助我们;或者当良知或冲突时,它们会阻碍我们。

一台计算机具有与我们一样的情感感知能力,但是实现情感的技巧比一种解决方案能够满足人们在此处寻求的所有答案要复杂得多。

而且,如果有人认为情感只是可以围绕一个响应设计一个或多个响应的“状态”,那实际上就不了解情感的复杂性。“自由”的情感和思想彼此独立。或真正的思想是什么!

程序员和科学家以“模拟”情感或智力的真实体验而臭名昭著,却没有理解其内在的复杂性。认为在找到完美的模拟时,他们“发现”了真实的经验。

Psi-理论似乎对问题有足够的理解:https : //en.wikipedia.org/wiki/Psi-theory

因此,我想说,对情绪状态的模拟“等同于”体验情绪,但是这些情绪状态要比最现实的状态复杂得多。


7

哲学中关于内在语言和感知痛苦的能力有很多讨论(请参阅哲学文章中的痛苦)。您的问题是哲学而不是科学领域。如果将情绪定义为某种状态,则可以构造具有两个状态(情绪与非情绪)的简单自动机。它可能是一个非常复杂的状态,带有真实程度(情感百分比)。

基本上,要模仿人类的情感,您需要制作一个像人类一样活的生物,而仍然具有当今的理解和技术,您将无法识别其中的情感。您唯一能做的就是信任,当它说“我很伤心”时。现在我们处于图灵测试领域,这又是哲学,而不是科学。


6

从理论上讲,AI肯定有可能会感觉到情感。

根据Murray Shanahan的书《技术奇点》,有两种主要的AI形式:

1)基于人的AI-通过诸如全脑仿真之类的过程来实现,基于人的AI的功能可能与人脑的功能无法区分,因此,基于人的AI可能以与人类。

--

2)从零开始的AI-这种形式的AI基于机器学习算法和复杂的过程来驱动目标,我们进入了未知领域,因为这种形式的AI的发展本质上是不可预测的,并且不同于我们在生物样本空间中观察到的任何事物我们所拥有的智慧。

通过这种形式的AI,无法确定是否以及如何体验情感。

正如该问题提到前者一样,基于人的AI很有可能确实会体验到情感和其他类似人的特征。


5

假设AI是用机械外壳构建的,可以准确地反映人的大脑;包含化学信号和所有信息。理论上,人工智能应该能够感觉/处理情绪。


2
您是苹果的Siri吗?
skrtbhtngr

二元论者会说,即使到那时,人工智能将无法感受到喜怒哀乐,看到了哲学僵尸论证和问题感受性
Alex S King

您应该区分处理情绪和模仿的能力。情绪不仅仅是化学信号,更重要的是。这也是一个感知问题。
kvfi

尽管我同意@kvfi,这也是一个感知问题(这取决于许多因素),但我相信@Siri所说的AI领域当前的发展步伐,是AI should be able to feel emotions通过考虑并处理每个与之相关的数据
SE_User 16'Nov

2

情感是人类具有道德/道德的一个因素,仅因为它们是人类所有学习和决策的一个因素。

除非您精确地复制了一个人,否则没有理由认为AI将学习人的学习方式或以与人的决策相同的方式进行决策。

因此,无论是像我们一样“感到情感”,还是只是对结果“成本更高=不去那里”做出反应,都可以实现道德行为的结果。人工智能可以在道德上完美表现,而无需感到同情,羞辱等。

您还可以辩称,人类中许多不道德行为也是由情绪驱动的,而且没有感情却具有道德的AI可能比人类做得更好。


2

这个问题比AI更重要的是心智哲学,这是哲学SE对您的问题的一些详细解答:模拟情感是否与体验情感相同?物理主义有什么问题?

记录下来,(Siri)接受的问题答案并不完全正确(该答案的位置大致对应于约翰·塞尔(John Searle)对问题的观点,而他的观点为少数派):二元论者会认为,即使是完美的复制到大脑相互作用的化学水平,人工智能仍然不会体验到情感,因为它缺乏构成大脑而非机器的纯粹精神物质/特性。

在光谱的完全相反的方面,功能主义者会回答说,这种完美的复制是过大的:即使是经过适当编程的数字计算机也能体验到情感,特别是如果人们配备了高阶和自指状态。


关于情感模拟,这绝对是一个哲学问题,但是消除拟人化,并专注于基本的哲学原理,可以证明它是数学上的:ai.stackexchange.com/a/2877/1671。要真正感受到,这种情感必须来自机器认为重要的事物,例如优化,计算资源,可计算性/难处理性和平衡性。但是,就系统的自觉性或缺乏自觉性而言,它肯定再次成为哲学的。[好回答,顺便说一句!]
周公爵

1

好吧,这取决于AI的水平。

您可以创建具有深度学习功能等的AI超级自治系统,但只能是机器人类型。

如果您要在Ex-Machina电影中创建类似于EVA的AI,类人生物,深层神经传递以及认知失调,那么它就会感觉到。

“ AI”问题不是化学和神经传递,而是意识。


1

是的,没有。如果您完全模拟人脑及其所有功能,那么它可能会感觉到与我们的方式非常相似的情绪。

但是我们没有足够的能力和知识来做到这一点,也许我们可以找到一个“捷径”-一种无需模拟整个大脑就可以实现的智能过程。在这种情况下,情绪可能由表示“这很好(使它再次发生!)”或“这不好(避免它!)”的数据值表示。这只是一个非常基本的示例(显然会有更多的情绪),但是它具有类似的功能,而AI与我们现有的解决方案具有相似的解决方案。但是我们不知道-也许没有人会知道-如果此数据对AI的“坏”“感觉”相同,那么相应的情绪就会对我们产生影响。


1

您首先需要表达情绪,您可以在没有AI的帮助下做到,然后需要有人感知并表达同情。

如果没有人可以看到它,或者我是精神病患者,我可能会说它没有情感。因此,这是无关紧要的/主观的。

如果您能同情电影中“扮演”情感的角色,那么您就会明白我的意思。


1

恕我直言

绝对可以! 通过身体或大脑中的化学信号处理,可以发现人的所有(身体或精神上)的感觉。如果我们了解此类信号的政策和性质,则可以对其进行编程。

在这个领域有很多伪心理学和心理学著作,如果您有兴趣,我可以建议您:

1)认知心理学(Robert L.Solso)

用简单的语言描述人脑的认知方式;

2)情绪心理学(Carroll E. Izard)

通过看待人类(儿童和成人)的面部,低级的认知机制,相关或相邻的情感来全面描述每种情感;

3)保罗·埃克曼(Paul Ekman撰写的书籍(“讲谎言”,“揭示情感”,“揭露脸庞”)

通过微表情语言在面部和身体上实际检测人类情绪。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.