1960年代从事人工智能研究的科学家和工程师最初有过自信的原因吗?


21

我刚刚开始了AI和数据挖掘课程,并开始了这本书。AI应用程序编程从对AI历史的概述开始。第一章介绍了1940年代至今的AI历史。我有一个特别的说法:

[在60年代]人工智能工程师承诺过高而交付不足...

过度自信的原因是什么?是因为数学预测模型显示了突破即将来临,还是由于不断增强的硬件利用能力?


4
自负问题是普遍的。有关更多详细信息,请阅读“被随机性愚弄”。en.wikipedia.org/wiki/Fooled_by_Randomness
工作

1
如果您的图书馆有此书的副本,则是Doug Lenat的论文,“为什么AM和EURISKO似乎起作用”。人工智能23(3):269-294页。也许值得一读。(AM和EURISKO是Doug Lenat自己的程序)。但是,这是在60年代以后。我个人认为这是因为一些早期的项目非常成功,因此使用一些简单的技术可以解决许多问题。las,事实并非如此。
MZB 2011年

7
问题比预期的难。难得多。

8
@Thorbjørn我不知道为什么,但是我可以想象,正好在工程师科学家离开办公室并到达临界点之前,他在笔记本的笔记本上乱写,失去了理智。
Thomas Owens

3
这是不值得回答的,但是您也应该考虑那些时代的社会背景。西方世界,尤其是美国,经历了第二次世界大战,并开发了许多技术,解决了许多难题。人们普遍认为,我们可以克服自己想解决的任何问题。称其为自大或傲慢可能有点过高。我会更多地追求无限乐观。
Blrfl 2011年

Answers:


30

我个人认为这是由于傲慢。在60年代和70年代,有一些强大的大人物在MIT,斯坦福大学等的大厅里走,他们只是知道他们已经破解了这个问题。对。

尽管那时我还不属于那个宇宙,但在80年代中后期,我一直在进行相似性搜索。我们的工作最初是基于60年代康奈尔大学的Gerard Salton所做的研究,该研究使用加权属性向量表示文档和查询。这实际上是一种有用的方法,但是当神经网络在火焰中崩溃(至少直到发现反向传播)时,由于与神经网络的相似性(双关语意),Salton的工作也包括在内。他试图做一些不同的事情,但是有好几年他都和其他人混在一起了。

每当有人为Current Brick Wall™提出解决方案时,他们都会感到非常兴奋,并宣布AI是一个已解决的问题。只是不是。因为堵砖墙后面是另一堵墙。这个循环一遍又一遍地重复,而不仅仅是在AI中。我坚信,应该要求所有潜在的计算机科学家和工程师参加计算历史学期的一学期课程,并特别强调像火箭一样上升的Next Big Things™的数量...谷底的大火山口。

附录:我和一个老朋友度过了劳动节周末,我们对此进行了一些讨论。弄清楚上下文意味着什么,如何表示它,然后如何使用它,这可能是有待解决的最大障碍。而且您看的时间越长,障碍就越大。人类能够“发生了什么”对抗一个庞大的商店惊人,近乎瞬时局部模式匹配的“什么以前也发生过,”再结合以往的知识与目前的情况来创建一个上下文中理解可以导致行动。例如,当我们降低Waldo等级时,我们可以将其用作“我们可以/不能忽略的事物”的强大过滤器 时速60英里/小时,并排4车道,仅相距3或4英尺(或更短)!

上的频谱stuff > data > information > knowledge > understanding > judgement,我们还在使劲地获取信息/知识的步骤,甚至仅限于高度受限话语领域


1
AI就像山脉。我们在山脚下的某个地方,可以看到我们想要攀登的山峰,但是我们不知道下一个山峰是什么,或者我们还剩下多少山峰才能达到目标。
CdMnky 2011年

1
IMO,没有真正复杂,高度通用的模式识别就不可能发生。刚读完他们尝试过的许多内容时,我就觉得我很天真或过分左脑,至少在80年代我意识到这一点时,我才开始理解编程。
Erik Reppen 2013年

17

很简单,他们大大低估了眼前问题的严重性,尤其是在涉及组合爆炸时。许多AI解决方案适用于“玩具”样本,但是当它们扩展到人类水平的问题时,它们会失败。

可以说,他们也完全没有经验。作为一个领域,人工智能(相对)只是在实际应用中发明的,因此没有人拥有将理论应用于任何事物的丰富经验。


我对此了解不多,但我一直认为Google的许多功能都是基于AI的,或者我对此是否了解不深?
user10326 2011年

@ user10326:是的。但是我不认为这与眼前的主题有什么关系-这段时期过了30年,谷歌才消失了。
DeadMG 2011年

好的,但是我要说的是,他们(Google)已经以一种实际的方式使用了AI,对吗?我的意思是,那可能不是他们当时“设想”的,但是仍然可以使用非AI语言?
user10326 2011年

4
@ user10326,据我了解,Google使用的是非常高级的猜测系统。基本上,它分析大量用户活动并尝试推断模式。AI的最初愿景是创建一个像人脑一样工作的真正数字思维。实际上,未能就AI的构成达成共识是该领域的失败之一。
jiggy

@ user10326:仍然不了解相关性。
DeadMG'9

15

我可以想到几个原因。

人工智能在50年代末和60年代初解决了一些玩具问题时取得了如此迅速的成功,以至于他们高估了自己的成就。尽管程序相对简单,但ELIZA和SHRDLU还是让人们感到震惊。不幸的是,使这些程序令人惊叹的很大一部分实际上只是新颖性。今天没有人对与ELIZA的对话印象深刻,但是当时人们认为这简直是奇迹。

而且,随着问题“解决”或至少变得易于解决,人们不再将其视为AI。代码优化曾经是一个AI问题。统计学习从AI萌芽而来,并发展为自己的特色,并以此进行语音识别。随着数据挖掘成为主流,它将失去与AI的关联。随着时间的流逝,人工智能会忘记它的成功,而会陷入棘手且难以解决的问题,最终看起来像是失败。


5
关于“如果不再是魔术(3),那就不再是AI”了。
Piskvor 2011年

但是,原则上不是统计学习和数据挖掘AI吗?
user10326 2011年

@ user10326,当然大多数参考文献仍将机器学习归为AI的一个分支,但是我给人的印象是,如果您告诉他们在ML中工作的许多人会皱着眉头。我认为他们会告诉您,从实用角度来说,机器学习是统计的一个分支,并且不提供对人工智能(无论是人工的还是其他方式)的任何特定见解。
查尔斯E.格兰特

12

我认为60年代的人们会根据自己的经验将问题分为“困难问题”和“简单问题”:对我们来说,像下棋,解决逻辑谜语,解决数学方程之类的事情对我们来说似乎很难。理解自然语言或在图像中找到对象的轮廓之类的事情似乎很容易,因为我们的大脑无需有意识的努力即可完成所有工作。当我们尝试解释我们如何做这些事情时,我们会提出一些简单的解释,例如“英语句子始终具有主语-谓语-宾语的结构,其中主语可以是简单术语或短语...”,或“寻找边缘并将其连接到对象边界”。今天,我们知道事情并没有那么简单,只是因为所有简单的(以及许多不太简单的)解决方案都已经尝试过并且没有做过。

此外,这种谬论并非始于60年代:关于如何解决“难题”(启发式,博弈论,决策论,数学,逻辑等)已有数百年的研究,但我不确定是否有人费心研究如何在1950年代之前解析自然语言。

甚至在今天,您仍可以定期在stackoverflow上找到问题,人们会问他们如何解析英语句子,估计图像中某个人的年龄,判断图像是否“可以安全工作”或两个图像是否显示相同的事物。我不认为谁问这些问题的人太傲慢自大或遭遇:这些问题才显得那么简单,这是令人难以置信的,有没有简单的算法来解决这些问题。


3
我相信这是正确的答案,而不是狂妄自大的理论,该网站似乎对此提供了强有力的支持。我们认为对于人类来说难以置信的事情对于机器来说相对容易,而对于人类而言,难以置信的简单事情对于机器来说却非常困难。
AlexC 2011年

11

人工智能有着令人失望的悠久历史,但我认为许多批评家常常过分简化了所发生的事情,例如您引述“ 1960年代工程师的承诺过高和交付不足”。

在20世纪60年代,人工智能是相对少数研究人员的领域(该领域尚未真正发展到足以称其为工程学),大部分是在大学中,而且只有极少数是有成就的程序员。

1950年代突然出现了计算机,对自动化产生了很高的期望,特别是在自然语言的机器翻译,下棋和类似问题中。您可能会发现从那时起对成功的一些实际预测,但是在有人深入解决其中一个问题之前,这些承诺不可避免地就已实现。(或者,他们错误地认为一项成功保证了另一项成功,例如在萨缪尔(Samuel)在跳棋方面取得了如此巨大的成功之后,期望能够实现良好的下棋。)

同样,要警惕“他们说”,“他们感到”,“他们认为”等主张。回顾性意见(像这样!)很容易被抛弃,而“专家”(实际上是试图解决给定问题的人)的实际预测的书面证据可能很难找到。

过度承诺和交付不足一直是软件开发的症状,无论编程的应用领域是什么。AI的主要困难在于,非平凡的问题超出了大多数工程师的能力范围。例如,尽管查尔斯·格兰特(Charles E. Grant)的答案将ELIZA和SHRDLU归类为“相对简单”,但我要说的是,只有ELIZA才是正确的(大多数一年级的编程学生可以很容易地实现)。另一方面,SHRDLU是一个大型的,非常复杂的程序,大多数程序员在发明和实施时会非常困难。确实,两个大学生团队甚至无法使源代码再次完全运行,以及40多年后的今天,仍然很难找到类似SHRDLU的能力。

由于AI可能是应用计算机时鲜为人知的问题,也是最棘手的问题之一,总的来说,我会说AI的进步在这门课程中通常是一样的。仍然有很高的期望,并且自60年代以来,我们的硬件速度和容量有了极大的提高,但是我想说工程师的能力和对AI的理解并没有太大的提高,因此像通过图灵测试这样的圣杯仍然存在可能还有很长的路要走,而且承诺过多和交付不足的情况可能还会持续一段时间。


回复:图灵测试:我读到了乔治亚理工学院的助教计划,大多数学生都说不出来是“ AI”。他们可能没有一直在寻找它,但是它的确没有跳出来。我认为一般对话很快就会解决。我最近看到有人在玩新的Google Echo东西(无论它叫什么)。可怜的是,它会停留多久,成千上万只猴子会给它提供对话样本?

5

我认为原因是自大。如果我是60年代从事AI的工程师,那我本来就很自大。

我认为为了成就伟大的事情,您必须努力达成伟大的事情。因此,只要您不超过限制,就过分承诺不一定是一件坏事。今天的科学家向我保证,我认为不可能实现的事情是可行的,但是如果他们无法做到这一点,那么我们将错过将会取得的成就。


4

当您不知道要去哪里时,很难到达某个地方。

如果我们对什么是智能以及它如何工作有某种合理的解释,也许我们可以有效地模仿它。图灵测试引人入胜且有用,但可能不足以帮助我们建模真实的智力。就我们所知,智能的“模型”也可能不足以实现真正的智力。


3
+1为第一句话。
梅森惠勒

也许我们不够聪明,无法理解智能,甚至无法理解它的模型。但是我们可以构建一个拙劣的模型,然后对其进行自我处理……


2

除了给出的良好答案之外,还有两个观察结果:

当今的某些说法似乎暗示着许多研究人员认为,一旦设计出更快的计算机,就可以扩大琐碎的解决方案。对于某种学习系统来说,这是非常正确的,但是对于我来说,OP所指的那种东西确实在规模上并没有任何改善。

当时的研究人员对人脑复杂性的估计非常低(关注图灵测试等概念,人们曾经只使用一小部分大脑的思想,等等)。随着事物规模的扩大,已经通过一些措施实现了简单动物级别的AI,但是跃升至人类水平的AI比预期的要大得多。这导致一些研究人员尝试学习婴儿系统以及其他基于生长/进化的模拟,以弥合这一差距。


简单的大脑(昆虫,鱼类,爬行动物)可以很好地处理行为,但是处理推理则是另一个问题。因此,我认为AI将很快能够就问题领域进行对话,但没有任何有意义的贡献或解决新问题的能力。有趣的地方是小脑(鸟)可以做复杂的事情,例如响应对话输入并发明有趣的事情(模仿门铃的鹦鹉模仿人们看门人开门,然后发出笑声)。

1

原因之一是我们在1960年代获得了ELSEWHERE的成功。我们刚刚进入太空,不久将使一个人登上月球。我们刚刚发现了小儿麻痹症和其他主要疾病的治疗方法。

但是“人工智能”与我们当时所面临的“工程”问题截然不同。这是一个“推理”问题,而不是“机械”问题。

简而言之,人工智能(在1960年代)是一个“还没到时候的想法”。在随后的几十年中,它经过了更多的开发,才能与其他问题一样容易获得。


0

另一个原因可能是,掌握计算机/编写计算机程序使我们几乎没有控制权,却感到无所不能-实际上,尽管封闭,但创造的却很少。

再加上缺乏哲学/认识论教育和对“智力不过是……的简单解释”的幼稚信任,可能导致自大。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.