数据增强是一种非常实用的技术,可以用来提高神经网络的泛化能力,防止过拟合。最近,混合样本数据增强受到了很多关注并取得了巨大的成功。为了提高混合样本数据增强的性能,最近的一系列工作致力于获取和分析图像的显著区域,并使用显著区域来指导图像混合。然而,获取图像的显著信息需要大量额外的计算。
与通过显著性分析提高性能不同,提出的方法
RandomMix
主要增加混合样本的多样性,以增强神经网络的泛化能力和性能。而且,RandomMix
可以提高模型的鲁棒性,不需要太多额外的计算,很容易插入到训练管道中。最后在CIFAR-10/100
、Tiny-ImageNet
、ImageNet
和Google Speech Commands
上进行实验数据集表明RandomMix
的性能优于其他最先进的混合样本数据增强方法。
1简介
深度神经网络成功的重要原因之一是它具有海量的可学习参数。但是,可以从Vapnik-Chervonenkis
(VC)理论推断,当训练数据有限或不足时,更多可学习的参数更容易过拟合训练数据。此外,模型对训练数据分布之外的数据的泛化能力极其有限。为了提高神经网络的泛化能力,防止过拟合,数据增强
是一种非常实用的技术。
最近,一系列混合样本数据增强方法被提出并广泛应用于深度神经网络的训练。与传统的数据增强只考虑同一类样本的邻近性不同,混合样本数据增强考虑了不同类样本之间的邻近关系。
Mixup
是混合样本数据增强的开创性工作,它使用线性插值来混合训练样本。CutMix
通过将一张图像的patch
粘贴到另一张图像上而不是插值来使混合样本多样化。为了提高混合样本数据增强的性能,一些最新的作品如SaliencyMix
、Puzzle Mix
和Co-Mixup
都专注于图像显著性分析。然而,获取图像的显著信息需要大量的额外计算。
与通过显著性分析提高性能的方法不同,本文的方法考虑通过增加混合样本的多样性来提高神经网络的性能。在前人工作的基础上提出了RandomMix
,它使混合样本更加多样化,具有更好的性能。此外,RandomMix
使模型更加稳健和方便使用。
作者评估了提出的方法在CIFAR-10/100
、Tiny-ImageNet
、ImageNet
和Google Speech Commands
数据集上的性能。实验表明,RandomMix
比其他最先进的混合样本数据增强方法具有更好的性能。除了泛化性能实验外,鲁棒性实验表明,在训练期间使用RandomMix
可以同时提高模型对对抗性噪声、自然噪声和样本遮挡的稳健性。
2本文方法
2.1 准备工作
Mixup
是第一个混合样本数据增强方法。它结合了先验知识,即输入特征向量的线性插值应该导致相关目标的线性插值。在Mixup
中,混合操作如下:
为了解决CutMix
中标签分配错误和对象信息丢失的问题,ResizeMix
通过直接将源图像调整为更小的块,然后将其粘贴到另一张图像上来混合训练数据。
对于Fmix
,它使用通过对从傅里叶空间采样的低频图像应用阈值获得的随机二进制掩码,从而进一步改善CutMix
混合区域的形状。
2.2 RandomMix
RandomMix
的主要目标是通过整合以前的工作来提高模型的鲁棒性并增加训练数据的多样性。此外,RandomMix
可以实现更好的性能,并且可以很容易地插入到现有的训练管道中。图1给出了所提方法的说明性表示。
图 1
如图1所示,首先,对输入Batch进行随机样本配对。配对操作定义如下
其中randperm(·)表示随机排列。接下来,为了获得更多样化的混合样本,通过从候选中随机选择一种混合方法来混合配对样本。随机选择的定义如下,
其中Candidates
和Weights
是超参数。例如,可以将Candidates
设置为[Mixup,CutMix,ResizeMix,Fmix],将Weights设置为[1,1,1,1]。通过相应的随机抽样得到混合比λ。最后,使用混合样本来训练模型。
3实验
3.1 CIFAR-10 and CIFAR-100
3.2 Tiny-ImageNet and ImageNet
3.3 Google Speech Commands
原文:集智书童
作者:ChaucerG
推荐阅读
- Sparse RCNN再升级 | ResNet50在不需要NMS和二分匹配的情况下达到48.1AP
- 字节用4大准则教你设计一个拥有CNN的速度,Transformer精度的模型!
- DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作
更多嵌入式AI相关技术干货请关注嵌入式AI专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。