我认为所有深度学习模型都不可能有一个答案。哪些深度学习模型是参数化的,哪些是非参数化的,为什么?
我认为所有深度学习模型都不可能有一个答案。哪些深度学习模型是参数化的,哪些是非参数化的,为什么?
Answers:
深度学习模型通常是参数化的-实际上,它们具有大量参数,每个参数都是在训练期间调整的。
由于权重的数量通常保持恒定,因此技术上它们具有固定的自由度。但是,由于通常有太多参数,因此可以看到它们模拟了非参数。
高斯过程(例如)将每个观测值用作新的权重,并且随着点数达到无穷大,权重的数量也会变新(不要与超参数混淆)。
我之所以这么说,是因为每种型号都有很多不同的口味。例如,低阶GP具有由数据推断出的有限数量的参数,我敢肯定有人在某个研究小组中正在制作某种类型的非参数dnn!
从技术上讲,标准的深度神经网络(DNN)具有参数数目,因此它是参数化的。但是,大多数DNN具有太多参数,因此可以将它们解释为非参数。已经证明,在无限宽度的极限内,深层神经网络可以看作是高斯过程(GP),它是一种非参数模型[Lee et al。,2018]。
不过,对于此答案的其余部分,让我们严格将DNN解释为参数。
参数化深度学习模型的一些示例是:
非参数深度学习模型的一些示例是:
图片来自Shakir Mohamed关于深度生成模型的教程。
参考文献:
Deutsch and Journel(1997,pp。16-17)认为“非参数”一词具有误导性。他们建议≪ ...对于基于指标的模型,应保留术语“参数丰富”模型,而不是传统的但具有误导性的限定词“非参数”。
“参数丰富”可能是一个准确的描述,但“参数丰富”具有令人不安的情感负载,因此不一定总是有必要给予肯定的看法(!)。
一些教授可能仍坚持使用神经网络,随机森林等,它们都是“非参数的”。神经网络的不透明性和分段特性的增加(尤其是随着ReLU激活功能的扩展)使它们成为非参数化的。