将CNN训练为自动编码器有意义吗?


9

我正在分析脑电数据,最终将需要对其进行分类。但是,获取唱片的标签有些昂贵,这使我考虑采用无监督方法,以更好地利用我们大量的无标签数据。

这自然会导致考虑堆叠自动编码器,这可能是一个好主意。但是,使用卷积神经网络也是有意义的,因为某种形式的过滤通常是对EEG的非常有用的方法,并且所考虑的时期可能应该在本地而非整体上进行分析。

是否有结合两种方法的好方法?似乎当人们使用CNN时,他们通常会使用监督培训,或者什么?探索神经网络来解决我的问题的两个主要好处似乎是无人监管,以及微调(例如,在人口数据上创建一个网络,然后针对个人进行微调很有趣)。

那么,有谁知道我是否可以像训练“残破的”自动编码器那样预训练CNN,还是毫无意义?

我是否应该考虑其他某种架构,例如深度信任网络?

Answers:


8

是的,将CNN与自动编码器或其他无监督方法配合使用是有意义的。实际上,已经针对EEG数据尝试了将CNN与无监督训练相结合的不同方式,包括使用(卷积和/或堆叠)自动编码器。

例子:

用于EEG记录的深度特征学习使用具有自定义约束的卷积自动编码器来提高跨主题和试验的通用性。

深度卷积神经网络基于EEG的驾驶员认知性能预测在单个电极上使用卷积深度信念网络,并将其与完全连接的层组合在一起。

一种新颖的深度学习方法,用于对EEG运动图像信号进行分类,在受过训练的(相当浅)的CNN的输出上使用完全连接的堆叠式自动编码器。

但也有纯监督的CNN在EEG数据方面也取得了成功,例如:

EEGNet:用于基于EEG的脑机接口的紧凑型卷积网络

使用卷积神经网络进行深度学习,用于大脑映射和解码来自人类EEG的与运动有关的信息(公开:我是这项工作的第一作者,更多相关的工作,请参阅第44页)

请注意,EEGNet论文显示,即使进行的试验次数较少,对CNN进行纯监督训练也可以胜过其基线(请参见图3)。同样,在我们仅进行288次训练试验的数据集上的经验中,纯监督的CNN可以很好地工作,略胜于传统过滤器库常见的空间模式基线。


3

是的,您可以在自动编码器设置中使用卷积网络。没有什么奇怪的。但是,人们在找出反卷积层时遇到了问题。

在这里,您可以找到使用Keras框架的卷积自动编码器的示例:https ://blog.keras.io/building-autoencoders-in-keras.html

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.