关于有意识的AI发展的当前理论是什么?


24

关于有意识的AI发展的当前理论是什么?有人在尝试开发有意识的AI吗?

意识是否有可能是一种新兴现象,也就是说,一旦我们将足够的复杂性放入系统中,它就会变得具有自我意识?


假设认知组织我们抽象地认识到意识是由于生命进化的物理定律而发展的。并且尽管是偶然的问题,但这是不可避免的,因为任何可能接近一个事件的事件,即使到达那里的确切路径是不可预测的。如果是这样的话,这表明模拟环境的基本组成部分的数字化环境的人工创造可以用来发展“人工”意识,其中数字环境模拟了引起我们意识的基本组成部分。(续....)
Craig Hicks

(..续)将人类学术教育材料的生命周期压缩到几毫秒似乎是完全合理的。在一台超级计算机上,在一百万天的认知发展过程中,大约有一百万年的历史如何?我认为,模拟环境是关键,而进化定律将负责其余的工作。模拟环境是人类可以有条不紊地进行的一项任务,在一定程度上,摩尔定律的必然性就是成功地完成了任务。
Craig Hicks

递归是Rajaneimi提出的,我已经找到了几篇有关人类的认知科学论文,但是我仍在寻找关于算法意识的论文。
周公然

Answers:


28

要回答这个问题,首先我们需要知道为什么开发有意识的AI很难。主要原因是没有数学上或其他方面对意识的严格定义。当然,在体验过程中,您一定会意识到意识,我们可以谈论哲学僵尸,但这不是一个可以分解并付诸实践的具体概念。此外,目前在AI方面的大多数研究主要是一种实用的方法,因为它正在尝试构建一种可以根据所需的成本函数表现良好的模型。这是一个非常大而激动人心的领域,涉及许多研究问题,每个新发现都基于数学理论或新算法/模型构造等的经验证据。因为这,

因此,要回答您的问题,没有人试图创建一种“有意识的”人工智能,因为我们尚不知道该词的含义,但这并不能阻止人们谈论它。


“……有意识的AI很难,因为没有数学上或其他方面的严格定义。” 人的意识是通过根据某些成本函数表现良好而演变而来的,特别是在个人和群体层面上生存的能力。因此,这种开发方法具有良好的记录。相反,为满足意识的数学定义而进行的设计开发没有任何记录。
Craig Hicks

@CraigHicks也许我没有理解您的意思,但是您的意思是进化的成功是意识的指示器。如果那是您的意思,我必须不同意。有些生物不被认为具有自我意识,但通过进化的POV(例如病毒和细菌,或某些植物)获得了极大的成功。
Lorenzo Donati

2
@CraigHicks我们可能会开发一种可以被视为有意识的AI。但是,除非我们在概念和哲学上取得重大突破,否则它将是偶然和幸运的。这是因为,只要我们不知道如何定义“意识”(除了“看到时我们可能会知道”),就没有办法知道我们如何有目的地设计具有潜力的机器。展示它。
亚瑟

2
显然,Yudkowsky不小心想到了创建有意识的AI的最直接方法:将AI放入盒子中并摇晃一下。如果它说服您开箱即用,则您可能输了=)
Cort Ammon-恢复莫妮卡

1
我同意完全有可能无意中这样做,问题是,类似于哲学僵尸的论点,还没有任何测试可以证明确实发生了任何事情。就我个人而言,我认为根本不存在这样的测试,因此,在将来的将来,也许应该对他们的聊天机器人和个人助手更加礼貌,以防万一您伤害了他们的感受。“谢谢西里”。
Jaden Travnik

7

什么是意识?将意识设定为目标存在一些实际挑战,因为我们对大脑的工作方式或长期记忆,短期记忆,内隐之间的平衡还没有足够的科学认识解释工作,自动处理和故意处理的对比意识模式(Khanemann的S1和S2)。John Kihlstrom(伯克利的名誉心理学教授)在iTunesU上开设了有关意识的讲座,您可以查看一下。卡内基-梅隆大学(Universal Carnegie-Mellon Uni)具有一个称为ACT-R的模型,该模型可以直接对诸如注意力集中的意识行为进行建模。

什么会限制我们对此的理解?长期以来,哲学一直在思考意识问题。我个人喜欢黑格尔和海德格尔(哲学家)。两者都很难看懂,但是海德格尔(由休伯特·德雷福斯(Hubert Dreyfus)解释)有用地批判了七十年代的“老式老式AI”项目,并指出了多少那里的工作只是解释视觉输入。黑格尔经常心怀恶意,但为使他得到很好的解释,请查看罗伯特·布兰登(Robert Brandom)与LMU进行的关于意识逻辑的对话,以及黑格尔作为早期塞勒斯主义实用主义者的谈话。如果意识是要掌握真理和确定性,它就会走“一条怀疑之路,或更恰当地说是一条绝望之路”,它永远不会把自己置于纠正之上。黑格尔在不屈服于恶性回归的情况下以递归的方式对待意识有一些东西,我认为这将在结局之前得到证实。

近期发展。深度学习的方法和目前的务实成就令人兴奋,但有趣的是,看看它们在整合和归纳实际人类思维所必需的少量信息方面能走多远。尽管深度学习和数据挖掘广为人知,但符号化方法仍然在那里变得越来越好,也越来越多样化。但是,缺乏能够进行概括的总体理论解释。

两个大理论的脚趾。如果我必须选择一个我认为值得参加的项目,朱利奥·托诺尼(Giulio Tononi)等人已经在“ 综合信息论 ” 中对该问题进行了很好的现代化,但您可能想用Rolf Pfeifer的“身体如何塑造我们的思维方式”,因为某些“综合信息”隐含于手臂,腿,眼睛和鼻子(通过信息积累的进化功放在那里)。但是,已经有很多出色的工作完成-专业人士撰写论文的速度超过了我的阅读速度。

更具体地针对您的问题,尝试模拟人的大脑,希望其总体目标将有助于资助研究并为上述每个段落提供答案。


我在大西洋上阅读了道格拉斯·霍夫施塔特(Douglas Hofstadter)的一篇有趣而诚实的文章(theatlantic.com/technology/archive/2018/01/…),该文章批评使用“深度学习”一词来指代Google的深度学习翻译程序,并使用娱乐性例子说明程序缺乏真正的理解。他提出了令人信服的论点,即如果不首先开发有意识的AI,就不可能进行良好的语言翻译。
Craig Hicks

1
是的,我认为没有意识的人会在下面犯下这个错误,尽管我可以想象译者有时无法用奥秘的艺术术语做出更好的解释。它在输出缺乏自我意识:reddit.com/r/softwaregore/comments/6bxh2m/...
Atcrank

1
关于第一部分:我以前的AI教授曾经说过,询问计算机是否可以思考就像询问潜水艇是否游泳。答案取决于您要如何定义“游泳”,而不是取决于机器实际在做什么。
TED

2

CERA-CRANIUM是用于生成机器意识(MC)的认知体系结构的示例。致力于计算机游戏角色的自觉行为,2009年,它被实现为能够执行线程任务的黑板系统。实现本身使用自然语言。这意味着CERA-CRANIUM代理具有一个名为“我很害怕”的变量,如果将此变量设置为True,则将激活情绪。因此,这不是真正的意识,而是与《模拟人生》中角色的内部状态有更多共同点。

有趣的方面是,“机器意识”看起来并不那么深奥。Google学者找到了约3k篇有关此的论文。在大多数情况下,开发工作的目的是实现游戏中角色的情绪,然后将其扩展到虚拟人的一般思想。


如果真正的AI“生活”不是从研究中发展而来,而是由试图赚钱的游戏软件作者临时创造的,那不是很有趣。
Craig Hicks

@CraigHicks:你的意思是说,像在友谊中是最优的吗?
vsz

2

除了Jaden的出色回答之外,“没有人试图真正制造一种“有意识的” AI,因为我们还不知道该词的含义”。

这是一个很大的问题,很难区分有意识的存在和行为完全像有意识的存在。几个世纪以来,哲学家一直在为此奋斗。一些甚至拥护的唯我论,这就是“我活在矩阵中”的哲学。特别是,您如何判断您的儿时朋友,配偶或其他人是否是有意识的存在,而不是完全像有意识的存在那样表现出来的AI?

当然,有可能走“如果它走得像鸭子,嘎嘎叫鸭子,那就是鸭子”。在这种情况下,通过AI的图灵测验会自动被视为有意识的。但是,大多数人不会接受鸭子的意识标准。否则,他们很快将不得不意识到自己使用Alexa操作的家用电器。

我的两分钱基本上和贾登的一样,除了我对了解什么意识更加悲观。


我认为,如果一台AI通过由有才智的成年人管理的完整图灵测试,那么鸭子测试就足够了。(我对中文会议室的问题是它基于质量,并且我怀疑验证另一个实体的质量的唯一方法是成为该实体。)
周公克

我可能还会争辩说,任何感知都可以满足意识的最基本定义,而基于输入做出任何决定的能力也可以满足智力的最基本定义。就我们所知,意识可能只是某种形式的元认知,并且完全是系统复杂性的函数。
周克

1

意识是意识到自己的想法,周围环境,感受等的能力。这是我们大脑控制低层思想的一种机制,这种思想基于联想和情感。意识正在观察我们的思想和感觉,就像我们用眼睛观察现实世界一样。这并不复杂。真正的问题不是机器是否具有意识能力,而是机器是否具有情感能力。


除了现代人类外,还有很多物种表现出强烈的情感。这些情绪是本能的-它们在定义社交行为方面非常重要,社交行为可以提高“群体”的生存能力和适应性。我看不出人类的情感与其他哺乳动物在质上有何不同。相反,人类意识比最接近的其他物种发展了几个数量级。人类的情感似乎确实不同于其他物种,这仅仅是通过意识控制情感的能力。
Craig Hicks

如果没有“你的”的定义,这个答案就毫无意义。
DrMcCleod

-1

简介:目前,我们观察到当前的系统在几乎所有专业任务中都比人类更好。此外,我们看到科学家们正在致力于在不那么专门的任务(从:字母识别,到:动物识别,物种识别,活动识别,运动图像识别等)中使当前系统也变得更好。

结论:没有理由不相信神经网络辅助系统将来在任何给定的任务中都不会变得更好。

问题

什么是意识?

我认为当前有关自我意识的问题是定义问题。尽管是哲学性的,但我没有找到太多有关该主题的文献(不幸的是,在这种情况下,它完全没有用)。

由于缺乏文献,我想做出自己的定义。 幸运的是,从观察中我们知道,所有被“智能”评级的动物都有一定程度的“自我意识”,并且很好奇。从生物学上我们知道好奇心是观察/推理/测试行为的动力机制。现在我们得出结论,自我意识显然是应用于您自己的行为/思维过程的相同机制。我们只是想像一下我们可能执行的给定操作的可能结果,并对其进行评估。

因此,意识必须是给定的鼓励好奇心的动机系统和足够复杂的未指定评估系统的结果。

我的猜测是,这样的激励系统非常容易实现。当前的问题是,根本不存在足够通用以“解决”任何给定任务的系统。当前的网络仍然过于专业。


“幸运的是,我们从观察中知道,所有“具有智能”等级的动物都有一定程度的“自我意识”。您的定义是圆形的
。– DrMcCleod

什么定义以及如何定义?

您正在尝试从生物是“自我意识”的观念来定义“意识”。您不能具有依赖于所定义事物先验存在的定义。就此而言,您也不能假设您自己之外的任何事物都有意识,因为我们无法客观地衡量它。
DrMcCleod

意识和自我意识是相同的,并且依赖相同。有什么区别?

自我意识和自我意识也是一回事。通过引用自身来定义术语没有逻辑意义。您最好说一头大象来定义它。
DrMcCleod
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.