卷积网络的通用逼近定理


Answers:


7

这是一个有趣的问题,但是,它确实缺乏适当的说明,即所谓的卷积神经网络

是网络必须包含卷积运算的唯一要求吗?是否只需要包含卷积运算?是否允许合并操作?在实践中使用的卷积网络使用多种操作组合,通常包括完全连接的层(一旦您具有完全连接的层,便具有理论上的通用逼近能力)。

为你提供一些答案,可以考虑下面的情况:具有完全连接的层的输入和ķ使用权重矩阵被实现输出W¯¯ [R ķ × d。您可以使用2个卷积层来模拟此操作:DKWRK×D

  1. 第一个具有形状为D的滤波器。滤波器k d的元素d等于W k d,其余为零。该层将输入转换为K D维中间空间,其中每个维代表权重及其对应输入的乘积。K×DDdk,dWk,dKD

  2. 第二层包含个形状为K D的滤镜。过滤器k的元素k D k + 1 D为1,其余为零。该层执行前一层乘积的求和。KKDkD(k+1)dķ

这种卷积网络模拟完全连接的网络,因此具有相同的通用逼近能力。您可以考虑在实践中使用此示例有多有用,但我希望它能回答您的问题。


1
这种构造是相当明显的,但是仅在例如零填充边界条件下成立。对于更自然的要求,例如周期性边界条件(使算子平移相等),它就失败了。
乔纳斯·阿德勒

1
是的,这种明显的构造假设卷积仅应用于输入(无填充)。就像我说的那样,除非您指定允许的内容和不在CNN定义范围内的内容,否则我认为这是一种有效的方法。另外,请注意,UAT的实际含义几乎没有,所以我不确定是否深入探讨这一点,指定各种版本的CNN,并为每个版本演示类似的内容。
Jan库卡卡


By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.