人工智能任务是否需要意识?


14

定义意识是具有挑战性的,但是对于这个问题,让我们将其定义为“实际上正在经历感觉输入,而不是仅仅通过无生命的机器输入一堆数据”。人类当然有头脑;对于普通计算机,他们“看到”的所有东西仅仅是更多数据。可以选择说人类是有情的,而传统计算机则不是。

抛开是否有可能建造一个感知机器的问题,如果一个AI是有感知的,它实际上会有所不同吗?换句话说,是否有一些由于缺乏见识而使任务无法完成的任务,而不仅仅是变得更加困难?


有关 AI相关哲学的相关元讨论
本N

当然,从技术上讲,我们“看到”的所有事物也只是数据-电脉冲在视神经上传播。
内森·阿瑟

@NathanArthur他不是在谈论我们所看到的东西,而是在谈论自己的经历。
David Schwartz

@DavidSchwartz点了。:)
内森·阿瑟

您需要更好地定义“ AI”和“任务”,或者将它们一起使用-定义“任何AI任务”。专家系统被归类为弱AI,可以很好地执行其特定任务。在这种情况下,答案非常明确-不,不需要给定症状就可以提供诊断。
CramerTV'9

Answers:


11

没人知道。

原因:因为甚至无法正式确定您的同伴是否真正有意识(他们可能是哲学上称为“僵尸”的人)。现代物理学知道的任何测试都无法决定。因此,您可能是唯一的知性,其他人都是机器人。

因此,我们无法确定哪些任务需要感知。

请注意,僵尸的本体论状态是有争议的:一些AI哲学家(例如Daniel Dennett)声称僵尸在逻辑上是不可能的,而其他人(例如David Chalmers)则声称僵尸将被迫断言他们经历了夸张(即有情)。即使他们没有。是弗拉纳根(Flanagan)和波尔格(Polger)可读性强的论文,也解释了为什么图灵测试的神经功能更强不足以检测僵尸。

编辑:回应关于是否存在区分情感和非情感的客观测试的评论:

没人知道。我们相信的是,这除了现代物理学目前能告诉我们的东西之外,还需要一些东西。戴维·查默斯(David Chalmers)推测,应将质子作为一种新的物理单位形式引入,并以与电荷正交于距离的方式正交于其他形式。

在没有客观测验的情况下,我们必须依靠图灵测验变体,这种变体并不能保证他们对主体的意识比对智力更能保证。


我认为您是从固执己见的角度出发,而不是直接回答“如果有新的感觉,什么任务可能成为新的任务,而体验能力是我们可以给AI赋予的东西”的问题;取而代之的是,您要解决感性在其他生物中的作用。
阿维克·莫汉

2
这是因为(出于讨论情感的目的),“有意识的AI”和“其他人”之间没有区别。考虑到您可能是机器人(虽然这很难说),我可以做些什么却不能做,而我知道我不是?没有此类任务。QED。
NietzscheanAI'16年

您要假设另一个有感觉的存在,说您不确定它是否有感觉,因此就没有我的非感觉抑制的任务。因此,首先,您似乎确实知道答案,那就是“否”。其次,您仍然忽略了有关他在哪里给出他要使用的意识的定义的问题-您只是忽略了他说“搁置是否有可能建造有感觉的机器的问题...”的问题。 。您完全专注于这种机器是否可行,而不是暗示什么。
阿维克·莫汉

2
关键不是这种机器是否存在(提示:是的,我是其中一员)。关键是,没有任何物理测试可以证明或反驳“机器需要体验执行任务X的质量”的陈述,因为我们无法确定其他实体中的质量经验。
NietzscheanAI'16年

1
如果OP使用的定义不同于“实际体验”,例如问“可能进一步的元认知任务?”问题,那么答案将是不同的。就目前而言,“实际经验” = Qualia是AI哲学中一个经过广泛讨论的话题。
NietzscheanAI'16年

4

没有。

从定义上看的经历是无因果的。任何非因果关系都不是物理过程的要求;Qualia无法负担机器人做某事的能力,而机器人本来做不到。

也许。

尽管对于给定的AI任务不需要质量,但这并不是说任何足够高级的AI都不需要质量。可能是所谓的AI完整任务需要一个机器人,尽管它没有利用质量,但还是会产生这种质量。

是。

Qualia可能指的是一些虚幻的非物理属性,但是它的特殊之处在于我们知道它也物理存在。我能够在知情的情况下讨论我的夸张的事实(或者,如果您不相信我,能够做到这一点)意味着我(或您的)夸张确实有身体上的作用。

有理由认为,如果我们根据自己的能力接受他人的能力,那一定是因为我们自己的身体基础1。因此,人们可能会争辩说2具有相同物理容量的任何机器人都必须具有质量。

1因为主观在身体上没有因果关系,所以不能使我们接受任何事物。

2只要您不对夸张与它的直接物理表现有某种特别的奇怪假设,这充其量是微不足道的,因为如果我们进化出错误的夸张,您仍然会断定它是同等确定的正确的。


2

让我们使用基于常识的简单测试:您多久看到一个人在无意识的情况下解决需要使用理性的问题?是的,您可以在梦想状态期间或之后找到诸如Ramanujan之类的天才实例来解决复杂的问题,但是这些实例涉及部分意识。您不会在昏迷时看到像爱因斯坦这样的人提出相对论。开国元勋们在梦游时没有写《独立宣言》。实际上,在三角波深睡眠期间,您甚至找不到家庭主妇将一周的购物清单汇总在一起的实例。这是基于对智力的硬性定义,需要使用理性。没有人说“那只苍蝇很聪明”或“那只松鼠很聪明” 正是因为没有人能够使用理性。对于AI来说,这是一个很高的标准,但这是普通人在日常演讲中出于实用性的常识定义。同样,在实践中,每个人都认为意识对于行使这种智力是必要的。

相反,我们可以基于以下三个要素提出另一种基于常识的标准来判断对此论点的反对意见,特别是唯独主义者。2)反对对真诚持有反对者的影响;3)基于这些信念的行为对他人的影响。创建这个案例需要花费几段时间,但是如果我想以完整,透彻的方式来构建案例,那么长度是必要的。的确,如果我们的标准是绝对的证明,我们就不能证明另一个人拥有意识。实际上,我们不能为任何事情提供绝对的证明。无论有多可笑或琐事,总是有反对的余地。正如一些哲学家指出的那样,也许我们所知道的所有现实只是一个梦,或者是一些长期的阴谋的产物,例如吉姆·凯瑞电影《杜鲁门秀》的情节。应对此类异议的关键在于,它们需要无限解决日益难以解决的异议,这种异议的可能性会随着为证明这种不合理的怀疑辩护而需要采取的每一个额外步骤而降低;我一直想知道我们是否可以基于此类异议的基数(或模糊集的挑剔性)提出用于机器学习的“荒谬性指标”。如果我们允许批评家以各种毫无道理的反对意见站在门外,那么就不可能结束任何辩论。人类将无所作为而瘫痪,因为什么都无法决定。但是正如摇滚乐队Rush曾经指出的那样:“如果您选择不做决定,那么您仍然可以做出选择。” 在某些时候,即使没有绝对证据,我们也必须通过测试来决定这种事情。拒绝参加考试也是一种选择。解决这种争执就像是中国游戏Go的游戏-一旦其他玩家被包围并且没有更多可做的动作,则游戏结束。如果某人的证据被揭穿,并且他们没有进一步的辩解,那么我们可以得出结论,他们的行为是不合理的。有些人四处奔波,声称大屠杀从未发生过,或者声称地球平顶社会等等,但他们的存在不应该也不会阻止我们采取与他们的想法相反的行动。我们可以毫无疑问地揭露像“平面地球协会”这样的曲柄的异议,因为最终,它们根本无法回答我们的所有反驳。我很高兴出现夸张和哲学僵尸,是因为它们为有趣的对话和思想提供了食物,但是唯独社会不像平面地球协会的思想那样采取唯独主义,因为我们不完整的证据 我们可以毫无疑问地揭露像“平面地球协会”这样的曲柄的异议,因为最终,它们根本无法回答我们的所有反驳。我很高兴出现夸张和哲学僵尸,是因为它们为有趣的对话和思想提供了食物,但是唯独社会不像平面地球协会的思想那样采取唯独主义,因为我们不完整的证据 我们可以毫无疑问地揭露像“平面地球协会”这样的曲柄的异议,因为最终,它们根本无法回答我们的所有反驳。我很高兴出现夸张和哲学僵尸,是因为它们为有趣的对话和思想提供了食物,但是唯独社会不像平面地球协会的思想那样采取唯独主义,因为我们不完整的证据确实有反对。

正如GK切斯特顿(又名“常识的使徒”)在他的经典著作中指出的那样 正教许多古典哲学家所宣扬的那种根本性的疑问,不是通往智慧的道路,而是通往疯狂的道路;一旦超出合理的怀疑范围,我们最终将采取不合理的行动。他说,在没有绝对证据的情况下,我们可以依靠另一种次要证据形式:一个人的哲学是否将一个人引向臭名昭著的英国精神病院汉威尔。切斯特顿(Chesterton)提出了一个很好的案例,即当人们实际对诸如唯我论的想法采取行动(而不是仅仅在常春藤覆盖的教室里以学究的方式辩论这些想法)时,他们就会生气。某些形式的精神分裂症的标准。当对怀疑症进行彻底怀疑时发生的非人性化也与社会行为密切相关,尽管GKC并没有直接列举他的恐怖榜样,但Rene Descartes本身就是活生生的证据。他是一位杰出的数学家,他为自己怀疑自己的存在而怀疑一切,并为之欢呼雀跃,著名的格言是“我认为,我就是”。但是笛卡尔还习惯将死去的姐姐的模特与他一起带到欧洲咖啡馆,在那里可以看到他在和他聊天。所有这一切的要旨是,我们可以通过一个思想如何影响信徒的幸福,或者通过他们根据这些信念进行的道德选择如何反过来影响他人,来判断一个思想的价值。当人们实际上对那种以唯我论和否认普通夸张表示的激进怀疑采取行动时,这通常会对他们和他们所接触的其他人产生不良影响。他是一位杰出的数学家,他为自己怀疑自己的存在而怀疑一切,并为之欢呼雀跃,著名的格言是“我认为,因此我就是”。但是笛卡尔还习惯将死去的姐姐的模特与他一起带到欧洲咖啡馆,在那里可以看到他在和他聊天。所有这一切的要旨是,我们可以通过一个想法如何影响信徒的幸福,或者通过他们根据这些信念进行的道德选择如何反过来影响他人,来判断一个想法的价值。当人们实际上对那种以唯我论和否认普通夸张表示的激进怀疑采取行动时,这通常会对他们和他们所接触的其他人产生不良影响。他是一位杰出的数学家,他为自己怀疑自己的存在而怀疑一切,并为之欢呼雀跃,著名的格言是“我认为,因此我就是”。但是笛卡尔还习惯将死去的姐姐的模特与他一起带到欧洲咖啡馆,在那里可以看到他在和他聊天。所有这一切的要旨是,我们可以通过一个思想如何影响信徒的幸福,或者通过他们根据这些信念进行的道德选择如何反过来影响他人,来判断一个思想的价值。当人们实际上对那种以唯我论和否认普通夸张表示的激进怀疑采取行动时,这通常会对他们和他们所接触的其他人产生不良影响。但是笛卡尔还习惯将死去的姐姐的模特与他一起带到欧洲咖啡馆,在那里可以看到他在和他聊天。所有这一切的要旨是,我们可以通过一个思想如何影响信徒的幸福,或者通过他们根据这些信念进行的道德选择如何反过来影响他人,来判断一个思想的价值。当人们实际上对那种以唯我论和否认普通夸张表示的激进怀疑采取行动时,这通常会对他们和他们所接触的其他人产生不良影响。但是笛卡尔还习惯将死去的姐姐的模特与他一起带到欧洲咖啡馆,在那里可以看到他在和他聊天。所有这一切的要旨是,我们可以通过一个思想如何影响信徒的幸福,或者通过他们根据这些信念进行的道德选择如何反过来影响他人,来判断一个思想的价值。当人们实际上对那种以唯我论和否认普通夸张表示的激进怀疑采取行动时,这通常会对他们和他们所接触的其他人产生不良影响。

绕过这种方式,AI社区也面临着相当严重的风险-可能是永久的诱惑-犯了相反的错误,即在没有充分证据的情况下为其机器学习产品赋予常见的品质,意识等。我最近听到一个受人尊敬的学者基于令人震惊的不良逻辑理由提出的一个案例,其结果是植物具有“智能”,这是基于非常弱的定义以及对自组织的明显混淆。我们不能提供绝对的证据来证明一块岩石没有智力,这等于证明了否定否定的古老问题。值得庆幸的是,目前很少有人真正按照这种信念行事,因为一旦这样做,他们最终就会失去理智。如果我们认真对待此类论点,我们可能会看到通过了一些法律来保护在“ 70多岁(我仍然为我的被盗LOL感到沮丧)。然而,由于一厢情愿的想法,狂妄自大,发明者的崇高声誉,影响力,将相同的错误归因于将意识,智力和其他类似的品质归因于最先进的机器会容易得多。小说和现代与技术的恋爱。将来,我毫不怀疑我们将拥有AI的货运崇拜-也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有意识,灵魂或实际智慧比石头还多。不要对此发表任何评论,但我相信Rod Serling曾经为此写过一个故事。由于一厢情愿的想法,狂妄自大,发明者的崇高素养,科幻小说的影响以及现代对技术的热爱,使得智能和最先进机器具有其他类似的品质。将来,我毫不怀疑我们将拥有AI的货运崇拜-也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有意识,灵魂或实际智慧比石头还多。不要对此发表任何评论,但我相信Rod Serling曾经为此写过一个故事。由于一厢情愿的想法,狂妄自大,发明者的崇高素养,科幻小说的影响以及现代对技术的热爱,使得智能和最先进机器具有其他类似的品质。将来,我毫不怀疑我们将拥有AI的货运崇拜-也许像某种濒临灭绝的物种一样受到法律保护,拥有公民权利,但没有意识,灵魂或实际智慧比石头还多。不要对此发表任何评论,但我相信Rod Serling曾经为此写过一个故事。-也许像某种濒临灭绝的物种一样受到法律保护,具有公民权利,但没有意识,灵魂或实际智慧比石头还多。不要对此发表任何评论,但我相信Rod Serling曾经为此写过一个故事。-也许像某种濒临灭绝的物种一样受到法律保护,具有公民权利,但意识,灵魂或实际智慧并不比石头强。不要在这方面引用我,但我相信Rod Serling曾经写过这样的故事。

避免这种命运的最好方法是坚持对这些事物的常识解释和定义,我们在很大程度上避免这样做,因为它们为AI设定了很高的标准,我们一生中可能永远无法超越, 如果曾经。在任何技术水平上,人工智能甚至在逻辑上都是不可能的。我记得一些可以解释为这种效果的证据。如果切斯特顿和希拉尔·贝洛克(Hilaire Belloc)和阿诺德·伦恩(Arnold Lunn)等同事正确地认为,理性的使用在西方文明中已经开始瓦解,至少可以追溯到启蒙运动,那么这些标准就越来越难以坚持。伦恩(Lunn)在1931年出版的《从理性中逃脱》是这方面的经典著作,至今尚未被驳斥。这个历史趋势本身就是一个广泛的话题,但是只要说拒绝理性和对技术的痴迷都以明显的方式与AI领域直接相关就足够了。我们将越来越倾向于诉诸无瑕,轻率的反对意见,以降低我们对AI的定义中对理性和不可缺少的品质(如意识)的使用,但是提出了越来越弱的证明标准;同时,我们的技术将继续改进,从而促进人工智能的“人工”方面。然后,我们将越来越倾向于诉诸无瑕,轻率的反对意见,以便在我们对AI的定义中降低对理性和不可缺少的品质(如意识)的使用,但是提出越来越弱的标准来证明它。同时,我们的技术将继续改进,从而促进人工智能的“人工”方面。然后,我们将越来越倾向于诉诸无瑕,轻率的反对意见,以便在我们对AI的定义中降低对理性和不可缺少的品质(如意识)的使用,但是提出越来越弱的标准来证明它。同时,我们的技术将继续改进,从而促进人工智能的“人工”方面。

不要误会我的意思:如果我不认为我们可以用AI做一些真正令人兴奋的事情,那我就不会在这里。但是,通过解决人类难以思考但不需要意识或不使用标记人类智力的原因的所有类别的切线问题,就可以在不复制实际人类智力的情况下实现大多数目标。例如,卷积神经网络的图像识别能力就是一个例子。如果我们需要人类智力,我们总是可以通过最简单,最经济和经过时间考验的方式来生产婴儿。这些切向形式的AI也许对我们来说现在就足够了。如果我们自身没有足够的理由来决定理性对于AI是否必要,我们就无法将理性的运用注入我们的机器中,甚至辨别它的组成。在意识到人工智能的意义之前,我们无法设计或弃用人工智能的意识。不过,我敢打赌,每个人都在有意识的状态下阅读此主题并权衡明智的回应。就其本身而言,目前应该令人满意地回答我们的问题。


2

根据您提供的定义:

实际上经历了感觉输入,而不是仅仅通过无生命的机器来输入一堆数据。

计算机和人类都会经历感觉输入。您可以将计算机挂在人眼上,并使其运行与人脑相同的过滤例程(在移动眼睛时以及从焦点不在的物体上消除模糊)。

我会提出一个更准确的意识定义是自我反思的能力和倾向。计算机和人脑都具有自主活动。不仅机械,而且在我们的反应中。潜意识的计算机与自我意识的人类大脑之间的区别在于,我们还具有“观察”自身模式并加以考虑的能力。

因此,不,意识不是任何AI任务所必需的。图像识别是一项人工智能任务,不需要人类或其他方面的意识。您的大脑会以一种高度自主的方式将眼睛中的“洗”颜色分类为离散的对象。

tl;博士意识是自我参照。


-1

有两种任务需要意识:

  1. 意识

  2. 任何需要极端动态的任务,其中解决问题都需要在各种3D事务状态与如何解决问题的先验知识之间进行模拟

但是,一旦获得了如何解决给定问题的知识,进一步的优化将消除对意识的需求。

如果您对问题给予足够的专一性,则无需一般的求解器。然后,意识的唯一剩余需求就是为了自身。


-1

在非常利基的意义上,我会说是的。

感知将使可能实现的唯一任务是其本身的实际感觉和思考。在这一点上,感觉在我们要求AI完成的任何任务中均不起作用;从实用的意义上讲,我们正在迅速接近能够教授“死机”以完成有感觉的AI可以做的所有事情的地步。

口头表达通常转化为“在理解自己和其他实体是不同的代理人的同时具有推理能力”或类似的东西。从字面上看,它意味着更多的自我意识以及您所具有的意识的定义。我要说的是,我们已经很接近“死”的AI可以很好地模仿第一种思维方式的程度,仅通过非常好的学习和解释数据就可以了。

在此处输入图片说明

                              机器人会看到骨头的融合,还是曾经的存在?

因此,仅在能够“真正”体验信息的方面,真正具有感知能力的机器才具有卓越的功能(与真正,真正先进的“死” AI相比)。

这与所谓的“知识论点”并行进行,后者实际上就此问题进行了辩论。我听到的那个版本一直伴随着我,就是一个房间里有一个非常聪明的女孩,可以访问各种信息。她喜欢蓝色。还是她想;她从未真正看到过它。她掌握了世界上所有有关颜色以及颜色如何工作等方面的信息,但是在看到蓝色之前,她是否真的知道什么是蓝色?

进入该领域的另一笔历史悠久的大事是著名的画作:

                                        Ceci n'est pas une烟斗

标题翻译为:“这不是管道”。实际上,这是一个管道。现在,在某种配置下,它是屏幕上的一堆像素-我们都可以“看到”管道,但这实际上意味着什么?

归根结底,我认为超级智能的“死” AI几乎可以做任何“活着”的事情,而后者在“活泼”本身方面更胜一筹。


您给的感觉的口语定义不是OP使用的语言-他们的定义是实际经验,即qualia。相反,您引用的“黑白房间”思想实验专门针对夸张。
NietzscheanAI'16年

对。该段的其余部分解决了这一问题。
阿维克·莫汉

-2

没有智慧的人不会受苦。例如,如果我们想在另一个人的痛苦中感到高兴,那么只有有知觉的人工智能就足够了。

假设我们有一些虐待狂,除非他们产生很多苦难,否则他们将无法满足或富有成效。并且说我们只关心将人类和动物的痛苦减到最少。我们需要的工作是可能遭受痛苦的非人类和非动物性的事物。有意识的AI会做,无意识的AI不会做。

有人在评论中声称,除了内省之外,意识无法得到证明。但这显然不是问题,因为虐待狂者乐于折磨他人,而其他人也不能证明自己有意识。


3
虐待狂同其他所有人一样,也无法将情感与可观察到的等效非情感区别开来,因此在这里实际上也不需要情感。
NietzscheanAI'16年

A being with sentience cannot suffer-你是说出去吗?
神话

我想看斯坦尼斯瓦夫·莱姆(Stanislaw Lem)的故事“马克III野兽的灵魂”,以更好地了解电子成瘾症。
NietzscheanAI'16年

@NietzscheanAI假设我们有两个AI。一个可以证明它是有感觉的,而另一个则不能。前者将能够完成这项任务,而后者将无法完成。您声称施虐者具有与所有人一样的能力,这也意味着施虐者具有与其他所有人一样的能力。
David Schwartz

没有已知的证明情感的方法。请参阅我在答案中链接到的有关“僵尸地球”的Flanaghan论文。
NietzscheanAI'16年
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.