我想知道如何在EEG环境中解释循环架构。具体来说,我将其视为循环CNN(与LSTM等架构相反),但也许它也适用于其他类型的循环网络
当我读到R-CNN时,通常会在图像分类上下文中对它们进行解释。通常将它们描述为“随着时间的推移学习”或“包括time-1对当前输入的影响”
当使用EEG数据时,这种解释/解释会变得非常混乱。在此处可以找到在 EEG数据上使用R-CNN的示例
想象一下,我有一些训练示例,每个示例都包含一个1x512数组。该阵列在512个连续的时间点捕获1个电极的电压读数。如果将其用作循环CNN的输入(使用1D卷积),则模型的循环部分实际上并没有捕获“时间”,对吗?(如先前讨论的说明/解释所暗示),因为在这种情况下,时间已经被数组的第二维捕获了
因此,通过这样的设置,网络的循环部分实际上允许我们对常规CNN无法(如果不是时间)进行建模吗?
在我看来,循环仅意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。重复执行x个重复步骤。这个过程实际上有什么好处?