关于有意识的AI发展的当前理论是什么?有人在尝试开发有意识的AI吗?
意识是否有可能是一种新兴现象,也就是说,一旦我们将足够的复杂性放入系统中,它就会变得具有自我意识?
关于有意识的AI发展的当前理论是什么?有人在尝试开发有意识的AI吗?
意识是否有可能是一种新兴现象,也就是说,一旦我们将足够的复杂性放入系统中,它就会变得具有自我意识?
Answers:
要回答这个问题,首先我们需要知道为什么开发有意识的AI很难。主要原因是没有数学上或其他方面对意识的严格定义。当然,在体验过程中,您一定会意识到意识,我们可以谈论哲学僵尸,但这不是一个可以分解并付诸实践的具体概念。此外,目前在AI方面的大多数研究主要是一种实用的方法,因为它正在尝试构建一种可以根据所需的成本函数表现良好的模型。这是一个非常大而激动人心的领域,涉及许多研究问题,每个新发现都基于数学理论或新算法/模型构造等的经验证据。因为这,
因此,要回答您的问题,没有人试图创建一种“有意识的”人工智能,因为我们尚不知道该词的含义,但这并不能阻止人们谈论它。
什么是意识?将意识设定为目标存在一些实际挑战,因为我们对大脑的工作方式或长期记忆,短期记忆,内隐之间的平衡还没有足够的科学认识解释工作,自动处理和故意处理的对比意识模式(Khanemann的S1和S2)。John Kihlstrom(伯克利的名誉心理学教授)在iTunesU上开设了有关意识的讲座,您可以查看一下。卡内基-梅隆大学(Universal Carnegie-Mellon Uni)具有一个称为ACT-R的模型,该模型可以直接对诸如注意力集中的意识行为进行建模。
什么会限制我们对此的理解?长期以来,哲学一直在思考意识问题。我个人喜欢黑格尔和海德格尔(哲学家)。两者都很难看懂,但是海德格尔(由休伯特·德雷福斯(Hubert Dreyfus)解释)有用地批判了七十年代的“老式老式AI”项目,并指出了多少那里的工作只是解释视觉输入。黑格尔经常心怀恶意,但为使他得到很好的解释,请查看罗伯特·布兰登(Robert Brandom)与LMU进行的关于意识逻辑的对话,以及黑格尔作为早期塞勒斯主义实用主义者的谈话。如果意识是要掌握真理和确定性,它就会走“一条怀疑之路,或更恰当地说是一条绝望之路”,它永远不会把自己置于纠正之上。黑格尔在不屈服于恶性回归的情况下以递归的方式对待意识有一些东西,我认为这将在结局之前得到证实。
近期发展。深度学习的方法和目前的务实成就令人兴奋,但有趣的是,看看它们在整合和归纳实际人类思维所必需的少量信息方面能走多远。尽管深度学习和数据挖掘广为人知,但符号化方法仍然在那里变得越来越好,也越来越多样化。但是,缺乏能够进行概括的总体理论解释。
两个大理论的脚趾。如果我必须选择一个我认为值得参加的项目,朱利奥·托诺尼(Giulio Tononi)等人已经在“ 综合信息论 ” 中对该问题进行了很好的现代化,但您可能想用Rolf Pfeifer的“身体如何塑造我们的思维方式”,因为某些“综合信息”隐含于手臂,腿,眼睛和鼻子(通过信息积累的进化功放在那里)。但是,已经有很多出色的工作完成-专业人士撰写论文的速度超过了我的阅读速度。
更具体地针对您的问题,尝试模拟人的大脑,希望其总体目标将有助于资助研究并为上述每个段落提供答案。
CERA-CRANIUM是用于生成机器意识(MC)的认知体系结构的示例。致力于计算机游戏角色的自觉行为,2009年,它被实现为能够执行线程任务的黑板系统。实现本身使用自然语言。这意味着CERA-CRANIUM代理具有一个名为“我很害怕”的变量,如果将此变量设置为True,则将激活情绪。因此,这不是真正的意识,而是与《模拟人生》中角色的内部状态有更多共同点。
有趣的方面是,“机器意识”看起来并不那么深奥。Google学者找到了约3k篇有关此的论文。在大多数情况下,开发工作的目的是实现游戏中角色的情绪,然后将其扩展到虚拟人的一般思想。
除了Jaden的出色回答之外,“没有人试图真正制造一种“有意识的” AI,因为我们还不知道该词的含义”。
这是一个很大的问题,很难区分有意识的存在和行为完全像有意识的存在。几个世纪以来,哲学家一直在为此奋斗。一些甚至拥护的唯我论,这就是“我活在矩阵中”的哲学。特别是,您如何判断您的儿时朋友,配偶或其他人是否是有意识的存在,而不是完全像有意识的存在那样表现出来的AI?
当然,有可能走“如果它走得像鸭子,嘎嘎叫鸭子,那就是鸭子”。在这种情况下,通过AI的图灵测验会自动被视为有意识的。但是,大多数人不会接受鸭子的意识标准。否则,他们很快将不得不意识到自己使用Alexa操作的家用电器。
我的两分钱基本上和贾登的一样,除了我对了解什么意识更加悲观。
意识是意识到自己的想法,周围环境,感受等的能力。这是我们大脑控制低层思想的一种机制,这种思想基于联想和情感。意识正在观察我们的思想和感觉,就像我们用眼睛观察现实世界一样。这并不复杂。真正的问题不是机器是否具有意识能力,而是机器是否具有情感能力。
简介:目前,我们观察到当前的系统在几乎所有专业任务中都比人类更好。此外,我们看到科学家们正在致力于在不那么专门的任务(从:字母识别,到:动物识别,物种识别,活动识别,运动图像识别等)中使当前系统也变得更好。
结论:没有理由不相信神经网络辅助系统将来在任何给定的任务中都不会变得更好。
问题:
什么是意识?
我认为当前有关自我意识的问题是定义问题。尽管是哲学性的,但我没有找到太多有关该主题的文献(不幸的是,在这种情况下,它完全没有用)。
由于缺乏文献,我想做出自己的定义。 幸运的是,从观察中我们知道,所有被“智能”评级的动物都有一定程度的“自我意识”,并且很好奇。从生物学上我们知道好奇心是观察/推理/测试行为的动力机制。现在我们得出结论,自我意识显然是应用于您自己的行为/思维过程的相同机制。我们只是想像一下我们可能执行的给定操作的可能结果,并对其进行评估。
因此,意识必须是给定的鼓励好奇心的动机系统和足够复杂的未指定评估系统的结果。
我的猜测是,这样的激励系统非常容易实现。当前的问题是,根本不存在足够通用以“解决”任何给定任务的系统。当前的网络仍然过于专业。