深度卷积神经网络有哪些有用的数据增强技术?


13

背景:看到Geoffrey Hinton的精彩演讲我最近更深入地了解了在训练卷积神经网络时数据增强的重要性。

他解释说,当代的卷积神经网络无法概括被测对象的参照系,这使得网络很难真正地理解对象的镜像是相同的。

已经进行了一些研究来尝试对此进行补救。这是许多例子之一。我认为这有助于确定当今训练卷积神经网络时关键数据的增长程度。

数据增强技术很少相互对照。因此:

问题:

  • 从业人员在哪些论文中报告其表现特别出色?

  • 您发现有用的一些数据增强技术是什么?


嗨@rhadar,你有什么消息吗?谢谢:)
nullgeppetto

Answers:


1

秒 1:数据增强由于需要在大量的训练图像上训练深度网络以获得令人满意的性能,因此,如果原始图像数据集包含有限的训练图像,则最好进行数据增强以提高性能。同样,数据增强成为训练深度网络时必须要做的事情。

  • 有许多方法可以进行数据增强,例如流行的水平翻转,随机裁剪和颜色抖动。此外,
    您可以尝试多种不同处理的组合,例如,
    同时进行旋转和随机缩放。此外,
    您可以尝试将
    所有像素的饱和度和值(HSV色彩空间的S和V分量)提高到0.25到4之间的幂(
    对于色块内的所有像素都相同),然后将这些值乘以
    0.7和1.4,并在-0.1和0.1之间添加一个值。
    另外,您可以
    为图像/色块中所有像素的色相(HSV的H 分量)添加[-0.1,0.1]之间的值。

  • 克里热夫斯基等。1在2012年训练著名的Alex-Net时提出了花式PCA。花式PCA改变了
    训练图像中RGB 通道的强度。实际上,您可以首先在整个训练图像中对RGB像素值集执行PCA。和
    然后,对于每一个训练图像,只添加以下量
    的每个RGB图像的像素(即,I_ {XY} = [I_ {XY} ^ R,I_ {XY} ^ G,I_ {XY} ^ B] ^ T ):
    [bf {p} _1,bf {p} _2,bf {p} _3] [alpha_1 lambda_1,alpha_2 lambda_2,alpha_3
    lambda_3] ^ T其中,bf {p} _i和lambda_i是第i个特征向量和
    特征值
    分别是RGB像素值的3×3协方差矩阵的一个,而alpha_i是从高斯得出的随机变量
    均值为零,标准差为0.1。请注意,
    对于特定
    训练图像的所有像素,每个alpha_i仅绘制一次,直到该图像再次用于训练为止。也就是说
    ,当模型再次遇到相同的训练图像时,它将
    随机产生另一个alpha_i用于数据增强。在1中,他们
    声称“花式PCA可以大致捕获
    自然图像的重要属性,即,对象身份对于照明强度和颜色的变化是不变的”。对于
    分类性能,该方案
    在ImageNet 2012的竞争中将top-1错误率降低了1%以上。

(来源:必须了解深度神经网络中的技巧/窍门(由Xiu-Shen Wei撰写))

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.