我最近阅读了Yan LeCuns对1x1卷积的评论:
在卷积网中,没有“全连接层”之类的东西。只有带有1x1卷积内核和完整连接表的卷积层。
ConvNets不需要固定大小的输入,这是一个非常罕见的事实。您可以在碰巧产生单个输出矢量(没有空间范围)的输入上训练它们,然后将它们应用于更大的图像。然后,您将获得输出矢量的空间图,而不是单个输出矢量。每个向量都会在输入的不同位置看到输入窗口。 在这种情况下,“完全连接的层”实际上充当1x1卷积。
我想看一个简单的例子。
例
假设您具有完全连接的网络。它只有一个输入层和一个输出层。输入层有3个节点,输出层有2个节点。这个网络具有参数。为了更加具体,可以说您在输出层和权重矩阵中具有ReLU激活功能
卷积层必须看起来如何一样?LeCun对“完整连接表”意味着什么?