脑电数据的递归(CNN)模型


10

我想知道如何在EEG环境中解释循环架构。具体来说,我将其视为循环CNN(与LSTM等架构相反),但也许它也适用于其他类型的循环网络

当我读到R-CNN时,通常会在图像分类上下文中对它们进行解释。通常将它们描述为“随着时间的推移学习”或“包括time-1对当前输入的影响”

当使用EEG数据时,这种解释/解释会变得非常混乱。在此处可以找到 EEG数据上使用R-CNN的示例

想象一下,我有一些训练示例,每个示例都包含一个1x512数组。该阵列在512个连续的时间点捕获1个电极的电压读数。如果将其用作循环CNN的输入(使用1D卷积),则模型的循环部分实际上并没有捕获“时间”,对吗?(如先前讨论的说明/解释所暗示),因为在这种情况下,时间已经被数组的第二维捕获了

因此,通过这样的设置,网络的循环部分实际上允许我们对常规CNN无法(如果不是时间)进行建模吗?

在我看来,循环仅意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。重复执行x个重复步骤。这个过程实际上有什么好处?


我认为在每个步骤都保留原始输入是有用的,因为学习身份可能很困难,这就是为什么残留网络或仅复制输入以绕过大多数隐藏层可能有用的原因。对于应用于eeg的RCNN的特殊情况,您可以想象卷积标签时间t = 50ms,因为此时出现了某些功能。然后,您的网络可以查看该特定时间的原始输入以进行进一步分析。
agemO

Answers:


1

一般来说,网络的循环部分使您可以对长期和短期依赖性进行建模。因此,您的模型可以具有某种状态感。

如果您使用时间序列,这通常是有利的。例如,如果您有来自心率监测器的数据,并且喜欢在休息,压力和恢复之间进行分类。如果您的数据点说您的心律为130,则取决于您是从高负荷中恢复还是其他。

编辑:我忘记了你的第二个问题。

在我看来,循环仅意味着进行卷积,将结果添加到原始输入中,然后再次进行卷积。重复执行x个重复步骤。这个过程实际上有什么好处?

我可以考虑一些可能的答案。通过对重复部分进行卷积,可以对它进行过滤。因此,您会得到一个更清晰的信号,并且错误不会堆积太多。Vanilla rnn遭受梯度消失的折磨,因此这可能是他克服此问题的方法。此外,您正在将功能嵌入rcnn中,如他所说,这可以导致更多的利用途径。这使得它不太容易过度拟合,因此更具通用性。


0
  • 1x512输入阵列的意思是:递归网络将电极电压处理512次,换句话说,您需要处理单个功能。
  • 具有一项功能的CNN毫无用处。

-1

请记住,CNN是特征检测器。卷积层的输出是一个矩阵,用于发信号通知检测到某些特征的位置。

因此,循环CNN是学习特征序列的递归神经网络,其中在训练过程中也会学习这些特征。


2
这是一个误导性的答案,CNN不是特征检测器,它们是特征空间的转换,然后是将转换后的特征映射到输出的函数估计器。另外,根本不是OP的要求。请改用评论。这使问题看起来已得到回答,并阻止了其他人单击。
JahKnows

@JahKnows取决于解释,它们都是吗?看看(yosinski.com/deepvis)。它可能会帮助您。
媒体

@ncasas您能否为您的段落提供链接?
媒体
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.