中文室的论点是否反对人工智能?


10

回到大学时,我有一位复杂性理论老师,他说人工智能在术语上是一个矛盾。他认为,如果可以机械地计算,那不是智能,而是数学。

这似乎是中国会议室论点的变体。这种说法是一个比喻,将一个人放在一个装满中文书的房间里。这个人听不懂中文,但在门下却用中文漏掉了信息。这个人必须使用包含转换规则的书来回答这些信息。该人可以应用转换规则,但不了解自己正在交流什么。

中式房间的论点成立吗?我们可以说人工智能只是聪明的算法吗?

Answers:


5

对于这样的哲学疑问,有两种广泛的回应类型。

首先是进行类比并提及直觉。例如,可以实际计算出一个这样的中国房间的必要大小,并建议它存在于直觉范围之外,因此任何使用它的类比都是可疑的。

第二是尝试更精确地定义术语。如果说“智能”不是“人类要做的魔术”,而是“信息处理”,那么我们可以说“是的,显然中国会议室涉及成功的信息处理”。

我倾向于第二种方法,因为第二种方法会迫使对话朝着可观察到的结果发展,并且给想要对之提出主张的人增加了定义“智能”一词的难度。如果允许“理解”具有不明确的定义,则可以说任何系统都具有或没有理解。但是,如果“可理解”本身是根据可观察到的行为来理解的,那么构建一个“不是智能的”却共享所有可观察到的智能后果的系统的例子就变得越来越困难。


5

这取决于(人工)智能的定义。

塞尔(Searle)最初试图通过中国房间实验来反驳的立场是所谓的强AI立场:一台经过适当编程的计算机将拥有与人类完全相同的意识。

艾伦·图灵(Alan Turing)试图通过图灵测试(Turing Test)给出人工智能的定义,指出机器如果能够通过该测试就是智能的。这里介绍图灵测试。我不会详细解释它,因为它与答案并不真正相关。如果您像图灵那样定义(人工)情报,那么中国房间实验是无效的。

因此,中国房间实验的目的是要证明一台经过适当编程的计算机与人类的大脑并不相同,因此,图灵测试不是一台好书。


“强大的AI”通常用于指代足够智能以提高自身水平的AI,而不是指人类具有“思想”的意义上的“思想”。
马修·格雷夫斯

4

首先,要详细了解该论点,请查看Chinese Room上的SEP条目

我将CRA视为您对智能定义的指标。如果论点成立,是的,房间里的人会说中文。但是,让我们总结一下SEP条目中讨论的三个答复:

  1. 这个自己不懂中文(在房间外面他不会看中文),但是系统的 man + room懂中文。接受该答复表明,可以存在一个智能系统,其中的部分本身并不智能(这可以说是人体本身)。

  2. 该系统无法理解中文,因为它无法以与机器人或人类相同的方式与世界互动(即,它无法学习,并且只能回答一系列问题)

  3. 系统不懂中文(取决于您对“ 理解”的定义),您也不能说人类的行为与中文室也能理解中文一样。

因此,该论据或它的变体是否成立,取决于您对智能的定义,理解,取决于您如何定义系统等。重点是,思想实验是区分这些定义的好方法(很多,为了避免无休止地相互交谈,已经进行了许多辩论)。


好答案。在更广泛的系统之外,没有诸如认知之类的事情发生。长期以来,人类一直在使用诸如书籍和工具之类的技术来补充他们的认知。在此之前,人类依赖于其他人类和自然环境(留下指示食物来源的标记等)。

2

取决于你问谁!提出这一论点的约翰·塞尔(John Searle)会说“是”,但其他人会说这无关紧要。图灵测试没有规定机器必须实际上“理解”它在做什么,只要对人类来说看起来是这样。您可能会说我们的“思维”只是聪明算法的一种更复杂的形式。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.