回到大学时,我有一位复杂性理论老师,他说人工智能在术语上是一个矛盾。他认为,如果可以机械地计算,那不是智能,而是数学。
这似乎是中国会议室论点的变体。这种说法是一个比喻,将一个人放在一个装满中文书的房间里。这个人听不懂中文,但在门下却用中文漏掉了信息。这个人必须使用包含转换规则的书来回答这些信息。该人可以应用转换规则,但不了解自己正在交流什么。
中式房间的论点成立吗?我们可以说人工智能只是聪明的算法吗?
回到大学时,我有一位复杂性理论老师,他说人工智能在术语上是一个矛盾。他认为,如果可以机械地计算,那不是智能,而是数学。
这似乎是中国会议室论点的变体。这种说法是一个比喻,将一个人放在一个装满中文书的房间里。这个人听不懂中文,但在门下却用中文漏掉了信息。这个人必须使用包含转换规则的书来回答这些信息。该人可以应用转换规则,但不了解自己正在交流什么。
中式房间的论点成立吗?我们可以说人工智能只是聪明的算法吗?
Answers:
对于这样的哲学疑问,有两种广泛的回应类型。
首先是进行类比并提及直觉。例如,可以实际计算出一个这样的中国房间的必要大小,并建议它存在于直觉范围之外,因此任何使用它的类比都是可疑的。
第二是尝试更精确地定义术语。如果说“智能”不是“人类要做的魔术”,而是“信息处理”,那么我们可以说“是的,显然中国会议室涉及成功的信息处理”。
我倾向于第二种方法,因为第二种方法会迫使对话朝着可观察到的结果发展,并且给想要对之提出主张的人增加了定义“智能”一词的难度。如果允许“理解”具有不明确的定义,则可以说任何系统都具有或没有理解。但是,如果“可理解”本身是根据可观察到的行为来理解的,那么构建一个“不是智能的”却共享所有可观察到的智能后果的系统的例子就变得越来越困难。
这取决于(人工)智能的定义。
塞尔(Searle)最初试图通过中国房间实验来反驳的立场是所谓的强AI立场:一台经过适当编程的计算机将拥有与人类完全相同的意识。
艾伦·图灵(Alan Turing)试图通过图灵测试(Turing Test)给出人工智能的定义,指出机器如果能够通过该测试就是智能的。这里介绍图灵测试。我不会详细解释它,因为它与答案并不真正相关。如果您像图灵那样定义(人工)情报,那么中国房间实验是无效的。
因此,中国房间实验的目的是要证明一台经过适当编程的计算机与人类的大脑并不相同,因此,图灵测试不是一台好书。
首先,要详细了解该论点,请查看Chinese Room上的SEP条目。
我将CRA视为您对智能定义的指标。如果论点成立,是的,房间里的人会说中文。但是,让我们总结一下SEP条目中讨论的三个答复:
这个人自己不懂中文(在房间外面他不会看中文),但是系统的 man + room懂中文。接受该答复表明,可以存在一个智能系统,其中的部分本身并不智能(这可以说是人体本身)。
该系统无法理解中文,因为它无法以与机器人或人类相同的方式与世界互动(即,它无法学习,并且只能回答一系列问题)
系统不懂中文(取决于您对“ 理解”的定义),您也不能说人类的行为与中文室也能理解中文一样。
因此,该论据或它的变体是否成立,取决于您对智能的定义,理解,取决于您如何定义系统等。重点是,思想实验是区分这些定义的好方法(很多,为了避免无休止地相互交谈,已经进行了许多辩论)。