Answers:
我将通过指出比我聪明得多的人对此问题进行详细介绍,以此开头这个答案。也就是说,据我所知:
当我们谈论智能时,我们指的是相对于其他智能的强度,相对于问题的解决问题的强度。
这是一个有点博弈论的概念,与理性和理性主体的概念有关。以这种方式关于智力可能是不可避免的。具体来说,我们可以将智能定义为理解问题或解决方案或抽象概念的能力,但是如果不进行测试就无法验证这种理解。 (例如,我可能相信我掌握了一种数学技巧,但是确定该信念是真实的还是虚幻的唯一方法是利用该技术并评估结果。)
除了长期以来人们对游戏的兴趣之外,像Chess和Go这样的游戏被用作里程碑的原因是,它们提供的模型具有简单,完全可定义的参数,并且至少在Go的情况下具有类似于自然的复杂性,我的意思是无法解决 / 棘手。(与井字游戏的强度进行比较,这很容易解决。)
但是,我们应该考虑以下简要答案中涉及图灵测试的问题:
“……(情报)纯粹是由环境中的行为或达到该行为的机制所定义的?”
这很重要,因为Google刚刚将控制数据中心散热的控制权交给了AI。在这里,显然是机制本身证明了实用性,但是如果我们将该机制称为智能的,为了使智能具有意义,我们仍然必须与“智能方式”抗衡。(以什么方式智能?)如果我们想知道“如何智能”?(其效用程度),我们仍然必须相对于其他机制的性能来评估其性能。
(在自动机控制Google的空调的情况下,我们可以说它比以前的控制系统更智能,并且智能程度提高了。)
因为我们开始谈论更多的“通用智能”,此处将其定义为可以应用于一系列问题的机制,所以(我将minimax称为“惯性智能”,将机器学习称为“自适应智能” ),可能有必要扩展和澄清定义:
智力是机制相对于一个问题或一组问题的解决问题强度,相对于其他机制的强度。
或者,如果我们想变得精明:
智力就像智力一样(以及表现如何)。
在计算机时代之前,智力是用哲学术语定义的。它与逻辑,思考,学习,自我意识,记忆力和解决问题有关。此定义含糊不清,无法在软件中实现。定义智力的现代方法是基于博弈论的。诀窍是,智力不再与可以拥有灵魂的真实人联系在一起,而仅仅是赢得比赛的一种策略。这个想法是稍微修改问题,而不是争论可能的记忆和学习,更重要的问题是如何创建游戏。游戏是模拟现实的机器可读规则系统。例如,“ Pong”是模拟网球,而“ Sim city”是模拟房屋建筑。游戏与成功的策略之间是有区别的。在游戏中可能会获得较弱的分数,
计算机的发明也可以称为智能的实现。大多数理论上的计算机科学家都同意,一台可用于图灵的计算机可以解决任何问题。他所需要的只是一个算法,它是一个步骤序列。从功能的角度来看,这意味着计算机可以称为智能计算机,因为他能够执行算法。这没有回答具体算法的外观问题,但是从理论上讲,计算机可以完成人类可以做的任何事情。
这是AI的一个重要问题-也许是最重要的-人工的研究领域情报。我的意思是,如果AI是科学,那么它的实验将是可凭经验检验的。必须有一种方法来决定是否通过。那么什么是智力测验?在甚至设计测试之前,您需要清楚了解什么才是智能,否则您如何为它设计称职的测试?
当然,我是“水密潜水艇”研发项目的成员,并且可以肯定,我完全相信我的潜艇是水密潜水艇,但是我不知道如何测试它是否水密,因为我不知道“水密”是什么意思。这整个想法是荒谬的。但是请问AI“智能”是什么意思。通过分析,您得到的答案与潜艇示例几乎相同。
基本答案-行为
AI通常是根据行为来定义“思想”一词(想法,概念)。即图灵测试方法。如果机器的行为方式与人类的行为方式相同,那么该机器就是智能的,可以说人类正在执行需要人类智能的动作。
问题1:弹奏钢琴是智能的。演奏斯科特·乔普林的曲调显然需要人类的智慧。
问题2。如果机器通过了测试,则仅表明该机器对于所测试的行为是“智能的”。那未经测试的行为呢?对于自动驾驶车辆AI控制系统来说,这实际上是当今的生死攸关的问题。人工智能系统擅长在特定环境中驾驶汽车(显然需要人的智能),例如高速公路上的车道标志清晰,没有急弯,并且有分隔两个方向的中间障碍物。但是,在“极端情况”(异常情况)下,系统会发生灾难性的错误。
问题3。谁将他们的孩子放在通过图灵测试驾驶机器人的机器人驱动的校车上?有电线路横穿马路时发生风暴怎么办?还是远处的扭曲者就这样来了?那其他一千种未经检验的可能性呢?一个负责任的父母会想知道(a)人类智能的内部过程和结构的原理是什么,以及(b)数字总线驱动程序具有足够相似的内部过程和结构–即,不是行为而是正确的内部元素,正确的内在因果关系。
期望的答案–内在原则
我想知道机器正在运行正确的内部进程,并且正在正确的内部(内存)结构上运行这些进程(算法)。问题是,似乎没有人知道什么是正确的人类智力的内部过程和结构。(可以肯定的是,这是一个巨大的问题,但是还没有阻止AI的问题,或者是自动驾驶系统开发人员的问题。)这意味着AI现在应该做的事情是确定内部流程是什么。和人类智力的结构。但是它并没有这样做-而是将其有缺陷的技术商业化。
定义的要素– 1.概括
我们确实了解一些有关人类智力的知识。有些测试确实可以测试一台机器是否具有人类思维的某些特性。这些属性之一是泛化。作为一个笑话,图灵在他的1950年论文中给出了一个很好的对话概括实例:(目击者是机器)。
“审问者:在您十四行诗的第一行中写着'我将你与夏日相比吗','春季'会更好还是更好?
目击者:不会扫描。
审问者:“一个冬日”怎么样呢?
目击者:是的,但是没有人希望将其与冬天相比。
审问者:你能说皮克威克先生使你想起圣诞节吗?
目击者:在某种程度上。
审问者:但是圣诞节是一个冬日,我不认为皮克威克先生会介意比较。
证人:我不认为你是认真的。用冬饼来说,是指典型的冬日,而不是像圣诞节这样的特殊日子。”
当前的AI几乎没有什么可以像这样概括的。无法泛化可能被认为是当前AI的最大失败。概括的能力将是“智能”的适当定义的一部分。但是概括化的含义将需要说明。
泛化问题也是对AI理论的若干严重哲学异议的背后,包括框架问题,常识性问题和组合爆炸性问题。
定义的要素– 2.感知
感觉知觉显然是人类学习和智力的基础。数据(以某种形式)由人的感官发出,然后由中央系统处理。在计算机中,二进制值退出数字传感器并传输到机器。但是,值本身中没有任何内容指示所感测到的东西。然而,计算机唯一获得的是二进制值。机器怎么会知道被感测到的呢?(经典的中文会议室争论问题。)
因此,类人智力的另一个要素是以类人方式感知的能力。“类人方式”在这里的意思是,机器使用与人类感知相同的原理来处理感觉输入。问题在于,似乎没有人知道如何根据数字传感器(或自然感觉)发出的数据来构建语义(知识)。但是,类似人的感知仍然需要作为“智能”的适当定义的要素。
一旦人工智能解决了这两个问题(泛化和感知),那么它有望有望实现近70年的最初目标-用(或可以获取)类似于人类的机器一般情报。泛化原理和感知原理也许是相同的。也许实际上只有一个原则。不应认为答案很复杂。有时,最难理解的事情最简单。
因此,“当我们说“智能”时我们指的是什么?”这个问题对AI确实很重要。结论是,AI应该用包括泛化和感知的人为因素来取代其当前对“智能”的行为定义。然后继续尝试制定这两个的工作原理或原理。
智力是将各种概念和联想编织成有意义的整体的能力。从个人知识和经验中过滤,添加和拒绝各种想法。然后将这些想法有效地反映给提问者,以确认他们的理解和理解,从而使对话有效地进行,从而得出互惠互利的结论。
简洁而精确的术语“智能”的最一般定义是这样的。
驻留在某些实体中的行为特征的集合,其中该实体在某些特定的环境条件下可持续地成功完成特定的追求,同时避免特定的损失。
这些是根据上述定义在展示智力上失败的示例,表明了每个短语的重要性。
注意此定义中的四件事。
智力是一种状态,在这种状态下,要从各个方面获取任何上下文以利用它并采取行动。这可以分为感知的人为方面和人为方面。能够感知上下文并以不同的角度分析上下文以了解现实生活中的对象,从而有一个有效的解决方案。
应该将智力视为整合各种心理人物(如逻辑,创造力,解决问题等)的通用库。可以从人类和人工程序的角度来训练它们。