为什么机器学习不能识别素数?
假设我们有一个大小为n的整数V_n的矢量表示 该向量是机器学习算法的输入。 第一个问题:对于哪种表示形式,可以使用神经网络或其他矢量到位ML映射来学习n的素数/复合性。这纯粹是理论上的-神经网络的大小可能不受限制。 让我们忽略已经与素数测试相关的表示形式,例如:n个因子的空分隔列表,或者诸如Miller Rabin中存在的复合性见证。相反,我们将重点放在具有不同半径的表示形式上,或将其表示为(可能是多元)多项式的系数向量。或其他异国情调的人。 第二个问题:不管表示向量的具体细节如何,如果有的话,什么类型的ML算法将无法学习?同样,让我们省略上面例子中的“被琐碎的事所禁止”表示。 机器学习算法的输出为单个位,素数为0,复合数为1。 这个问题的标题反映了我对问题1的共识是“未知”而问题2的共识是“可能是大多数ML算法”的评估。我之所以这样问,是因为我对此一无所知,我希望有人能指明方向。 这个问题的主要动机(如果有的话)是:是否可以在特定大小的神经网络中捕获的素数集的结构存在“信息理论”限制?因为我不是这种术语的专家,所以让我重新阐述一下这个想法,看看是否对这个概念有一个蒙特卡洛近似值:素数集的算法复杂度是多少?素数是Diophantine可递归枚举的(并且可以满足特定的大二色子方程)是否可以用于捕获具有上述输入和输出的神经网络中的相同结构。