神经网络的Vapnik–Chervonenkis(VC)维度公式的范围从到,在最坏的情况下为,其中是边的数量和是节点数。拥有强大泛化保证的训练样本数与VC维数成线性关系。
这意味着对于具有数十亿边缘的网络(如成功的深度学习模型而言),训练数据集在最佳情况下需要数十亿个训练样本,在最坏情况下需要四千万个训练样本。目前最大的训练集大约有1000亿个样本。由于没有足够的训练数据,因此深度学习模型不太可能泛化。相反,他们过度拟合了训练数据。这意味着模型在与训练数据不同的数据上将无法很好地执行,这对于机器学习来说是不希望的特性。
根据VC维度分析,鉴于深度学习无法泛化,为什么深度学习结果如此夸大?仅对某些数据集具有高精度本身并不意味着什么。深度学习架构是否有一些特别之处,可以显着降低VC维度?
如果您认为VC维度分析不相关,请提供证据/解释,表明深度学习是泛化的,并且不适合过度。即它具有良好的召回率和精度,还是仅具有良好的召回率?100%的召回率和100%的精度都是微不足道的。两者都接近100%是非常困难的。
与此相反,这里有证据表明深度学习过于适合。过拟合模型由于包含确定性/随机噪声,因此很容易被愚弄。参见下图,了解过度拟合的示例。
另外,尽管测试数据具有良好的准确性,但请查看该问题的较低答案,以了解过拟合模型的问题。