VC维度告诉我们有关深度学习的什么信息?


15

在基础机器学习中,我们被教导以下“经验法则”:

a)您数据的大小至少应为假设集的VC维大小的10倍。

b)具有N个连接的神经网络的VC维度约为N.

因此,当深度学习神经网络拥有数百万个单位时,这是否意味着我们应该拥有数十亿个数据点?能否请您对此有所说明?


如您所言,深度神经网络不会拥有数百万个单位。但是,它将有数百万个连接。我认为您的第二个经验法则不适用于这些网络,这主要是由于它们的正规化性质(例如,带有辍学的CNN)。
pir

我认为关键是VC绑定不是无限的。如果是有限的,那么PAC理论告诉我们学习是可行的。多少数据,这是另一个问题。
弗拉迪斯拉夫(Vladislavs Dovgalecs)2015年

Answers:


4

您谈论的经验法则不能应用于神经网络。

神经网络具有一些基本参数,即其权重和偏差。权重的数量取决于网络层之间连接的数量,而偏差的数量则取决于神经元的数量。

所需的数据大小在很大程度上取决于-

  1. 使用的神经网络的类型
  2. 网络中使用的正则化技术
  3. 用于训练网络的学习率。

话虽这么说,了解模型是否过度拟合的一种更正确,更确定的方法是检查验证误差是否接近训练误差。如果是,则模型工作正常。如果否,则模型很可能过度拟合,这意味着您需要减小模型的大小或引入正则化技术。


当您说了解模型是否过度拟合的最佳方法是检查验证误差是否接近训练误差时,您一定在开玩笑。
nbro

6
@nbro,如果您有适当的保留设置来检查验证错误,那么与经过通常非常松散的VC边界相比,这是针对特定受过训练的网络过度拟合的可靠方法。
Dougal

@Dougal您只是在重复您的回答。
nbro

3
不是我的答案@nbro。但是给定一个验证集,使用Hoeffding或类似方法,您可以在真正的泛化错误上获得微不足道的高概率界限,而通过VC界限涉及许多宽松的上限,这些上限并非特定于您拥有的特定数据集和网络手。
Dougal
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.