为什么我们需要人工智能常识?


10

让我们考虑这个例子:

今天是约翰的生日,让我们给他买风筝。

如果问到为什么要买风筝,我们人类很可能会说风筝是生日礼物。我们将这种推理称为常识

为什么在人工智能代理中需要它?我认为这可能会引起很多问题,因为我们很多人为错误都是由这些模糊的假设引起的。

想象一下一个AI忽略做某些事情,因为它假定它已经由其他人(或另一个AI)使用常识完成了。

那不会将人为错误带入AI系统吗?


评论不作进一步讨论;此对话已转移至聊天
nbro

Answers:


16

常识知识是在一定上下文中每个人都认为理所当然的前提的集合(因此,常识知识可能是上下文的功能)。如果AI不具备常识性知识,那么在人与AI之间会存在很多误解。因此,常识知识是人与人工智能互动的基础

在某些前提下,每个人都理所当然地独立于国家,文化或总体而言。例如,每个人(几乎从诞生之日起)就有一种推理机制,可以对天真物理学进行推理,例如空间,时间和物理相互作用。如果AI不具备此知识,则它无法执行需要此知识的任务。

任何需要机器具有(一般人的)常识知识的任务都被认为是AI完整的,也就是说,它需要人类(或一般)智能。参见Christian Andrich,Leo Novosel和Bojan Hrnkas撰写的文章常识知识(2009)的第3节。

当然,由于不同的假设或前提,在人类交流时出现的问题也可能在人类与具有常识知识的AI之间出现。


评论不作进一步讨论;此对话已转移至聊天
nbro

10

如果我们想让计算机理解人类语言,就需要这种常识知识。计算机程序很容易分析您给出的示例的语法结构,但是为了理解其含义,我们需要知道可能的上下文,在这里您将其称为“常识”。

Roger Schank 等人对此进行了很多强调的工作是通过计算机对故事的理解,并导致对知识表示,脚本,计划,目标进行了大量研究。尚克作品中的一个例子是玛丽饿了。她拿起了《米其林指南》。-这似乎是不讲道理的:如果您饿了,为什么还要读书呢?直到您意识到这是餐厅指南,并且玛丽可能正在计划去餐厅吃饭为止。如果您知道去餐馆可以解决饥饿的问题,那么您可以毫无疑问地理解这个故事片段。

任何故事都需要常识才能理解,因为没有一个故事是完全明确的。常见的事物是“理解的”,没有明确提及。故事与人类的经验有关,而一个使一切都变得明确的故事可能像计算机程序一样读起来。您还需要常识来理解故事中人物的行为,以及他们如何受到正在发生的事情的影响。同样,这是非常主观的,但这是必要的。一些常识可能普遍适用,但其他方面则不适用。这是一个复杂的问题,这就是为什么研究人员在至少半个世纪的AI研究中一直为此奋斗的原因。

当然,这会将“人为错误”引入AI系统。所有这些都是非常主观的和特定于文化的。去美国的餐厅不同于去法国的餐厅-这就是为什么出国可能是一个挑战。而且我对一个故事的阅读可能与您的不同。但是,如果您想模拟人类的智力,那么如果没有潜在的人类“错误”,您将无法做到这一点。


评论不作进一步讨论;此对话已转移至聊天
nbro

2

我将分几个部分回答这个问题:

为什么AGI系统需要具有常识?

相比于严格的逻辑,人类在疯狂的理性中使用常识进行交流比通过严格的逻辑所做的更多,您可以注意到这一点,因为它比逻辑更容易吸引人的情感。因此,任何试图复制人类认知的系统(例如在AGI中)也应复制这种使用常识的趋势。

简而言之,我们希望我们的AGI系统能够以常识语言与我们对话,因为这是我们最了解的(否则我们不会理解我们友好的AGI吗?)。从理论上讲,钝的理论和严格的逻辑可能是正确的,但并不吸引我们的理解。

AGI的目标不是创建认知上最先进的系统吗?为什么“最完美”的AGI系统需要处理常识中存在的这种缺陷和不精确性?

首先,似乎常识逻辑是“非理性的”。也许有一种一致的数学方法可以对常识进行建模,以便以严格的方式表示常识的所有微妙之处。

其次,人工智能的早期研究始于认知科学的研究,研究人员试图复制“思维算法”,或更准确地说是:复制人类思想的可决定性程序。在那种程度上,对AI的研究不是创造“最高认知者”,而仅仅是复制人类的思想/行为。一旦我们可以复制人类的行为,我们也许可以尝试通过赋予它更多的计算能力来创建超人类的东西,但这并不能保证。

我仍然不明白为什么AGI系统需要常识。AGI并不是要成为最智能,功能最强大的计算系统吗?为什么它应该关心或遵循人类常识性的极限?

也许您对AGI的含义有一些误解。AGI并不意味着无穷无尽的计算能力(由于布雷默曼极限等对计算的物理限制而在物理上是不可能的)或无智能的(由于先前的限制而在物理上是不可能的)。它通常仅表示人工“一般情报”,一般含义广泛而普遍。

在诸如理论计算机科学(我相信类型理论),决策理论甚至可能是集合论等领域中,对无边界代理的考虑进行了更详细的研究,在这些领域中,我们能够提出有关无边界计算能力的代理的问题。我们可能会说,即使有一个无穷无尽的AGI系统,也可能由于Halting问题而无法回答问题,但前提是这些字段的假设必须映射到给定AGI的结构上,而这可能并非正确。

为了更好地理解AGI的含义和目标,我可能推荐两本书:人工智能:约翰·海格兰德的《非常的想法》,它提出了一种更加务实的方法(就像AI哲学一样务实,以及《关于物体的起源》)布莱恩·坎特威尔·史密斯(Brian Cantwell Smith)采用了一种更具哲学倾向的方法。

除了有趣之外,Zen koan的作品:《无门之门》包含以下段落:(引自维基百科并经编辑)

一位和尚问中国禅宗大师赵州:“狗有佛性吗?” 昭州回答:“吴”

Wú(无)转换为“ none”,“ nonesuch”或“ nothing”,这可以解释为避免回答yes或no。这个开明的人并不想严格回答每个问题,而只是以一种有意义的方式做出回应。不管狗是否具有佛性(无论佛性是什么意思),这都没有关系,因此主人默认不解决问题而不是解决问题。


3
如果主人回答“wúfwúf!”,那会很有趣。
m3characters '19

1

也许可以举一个例子,说明在没有常识的情况下会出什么问题:在詹姆斯·霍根(James Hogan)的小说《明天的两张脸》的开头,月球上的建筑主管提出了自动系统的要求,要求特殊的大型建筑设备应尽快交付到他的工地。系统答复说它将在二十分钟内到达。二十分钟后,当设备坠入施工现场时,主管被杀死。该系统已确定,将设备运送到该地点的最快方法是将其安装在大量驱动器上,然后在该地点启动。如果给出的系统具有常识,它将在查询中推断出其他未说明的约束,例如“设备应完好无损地到达”,“ 设备的到来不应造成损坏或生命损失等。(小说的其余部分描述了一个旨在产生具有常识的新系统的实验)


非常有趣的例子。不过,也许它也可以朝相反的方向发展。想象一下AI在检查患者时,通过观察患者的整体正常外观,得出该患者可能/应该很好的结论(基于常识,如果您看起来很好,那么您就可以)。但是,患者需要严重的帮助。但是,我认为现在已经很清楚常识不是问题,它是错误的常识/知识,可能在关键情况下很危险。因此,我想我们应该控制并确保AI具有完美的常识。
泰坦

0

这是常识,还是对自然语言的理解?

有人说,自然语言理解是最困难的AI任务之一。这是显示原因的示例之一。句子的第一部分与句子的第二部分有关。

现在,相关的问题是两个部分之间是 如何关联的。我们遇到一些标准关系,例如时间顺序。在此特定示例中,关系的性质更接近因果关系。

当我们插入一个单词使该关系明确时,您会看到这种效果:

今天是约翰的生日,所以让我们给他买风筝。或让我们买约翰的风筝,因为这是他的生日。

这是人类将这些隐式关系明确化的技术。

现在,正如curiousdannii所指出的那样,您还需要文化知识来了解生日如何成为礼物的原因。没有多少常识对此有所帮助。


我们必须使用“ 常识 ”来理解这样的句子。我同意,NLP真的很难,这是因为到目前为止,人工智能还没有人类拥有的这种全面的知识和模型。因此它缺乏连接点和理解那些隐含关系的能力。您提到的“ 文化知识 ”基本上被认为是我们的常识。
泰坦
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.