数字计算机可以理解无限吗?
作为人类,我们可以思考无限。原则上,如果我们有足够的资源(时间等),我们就可以无数次地计数(包括抽象的,如数字或实数)。 例如,至少,我们可以考虑整数。我们原则上可以认为并“理解”屏幕上显示的许多数字。如今,我们正在尝试设计至少具有人类能力的人工智能。但是,我陷入无限。我试图找到一种方法,可以教一个模型(深度与否)来理解无限。我用功能性方法定义“理解”,例如,如果一台计算机可以区分10个不同的数字或事物,则意味着它确实以某种方式理解了这些不同的事物。这是“理解”的基本简单方法。 正如我之前提到的,人类理解无穷大是因为它们在原理上至少能够计算无穷整数。从这个角度来看,如果我想创建一个模型,那么该模型实际上是一个抽象意义上的函数,则该模型必须区分出无数个数字。由于计算机是数字机器,对这种无穷函数进行建模的能力有限,因此我如何创建可以对无数个整数进行微分的模型? 例如,我们可以采用深度学习视觉模型来识别卡片上的数字。该模型必须为每个不同的卡分配一个数字,以区分每个整数。由于存在无限数量的整数,因此模型如何在数字计算机上为每个整数(如人类)分配不同的数字?如果它无法区分无限事物,那么它如何理解无限? 如果我考虑实数,问题将变得更加棘手。 我想念的是什么?是否有针对该主题的资源?