AI学习者 · 2022年11月11日 · 广东

MogaNet登峰造极,超越ConvNeXt、ParC-Net和SWin

image.png

自从Vision Transformers(ViT)取得成功以来,对Transformers架构的探索也引发了现代ConvNets的复兴。在这项工作中,通过交互复杂性的角度来探索DNN的表示能力。经验表明,交互复杂性是视觉识别的一个容易被忽视但又必不可少的指标。因此,本文作者提出了一个新的高效ConvNet系列,名为MogaNet,以在基于ConvNet的纯模型中进行信息上下文挖掘,并在复杂度和性能方面进行了更好的权衡。

在MogaNet中,通过在空间和通道交互空间中利用两个专门设计的聚合模块,促进了跨多个复杂性的交互并将其情境化。

对ImageNet分类、COCO目标检测和ADE20K语义分割任务进行了广泛的研究。实验结果表明,MogaNet在主流场景和所有模型规模中建立了比其他流行方法更先进的新SOTA。通常,轻量级的MogaNet-T通过在ImageNet-1K上进行精确的训练设置,以1.44G的FLOPs实现80.0%的top-1精度,超过ParC-Net-S 1.4%的精度,但节省了59%(2.04G)的FLOPs。

1、简介

自深度神经网络(DNN)兴起以来,卷积神经网络(ConvNets)一直是计算机视觉的首选方法。受灵长类视觉系统的启发,卷积层可以对具有区域密集连接和平移等方差约束的观测图像的邻域相关性进行编码。通过交错分层,ConvNets获得了被动增加的感受野,并善于识别潜在的语义模式。尽管性能很高,但ConvNets提取的表示已被证明对区域纹理有很强的偏差,导致视觉目标的全局上下文信息的显著丢失。为了解决这一限制,以前的工作提出了改进的宏架构和上下文聚合模块。

相比之下,通过放松局部感应偏差,新出现的Vision Transformers(ViT)及其变种在广泛的视觉基准上迅速超越了ConvNets。几乎一致的共识是,ViT的能力主要来源于自注意力机制,无论拓扑距离如何,它都有助于长距离互动。然而,从实际角度来看,自注意力机制中的二次复杂性限制了ViT的计算效率及其在细粒度下游任务中的应用潜力。

此外,卷积感应偏置的缺失破坏了图像的固有2D结构,从而不可避免地导致图像特定邻域关系的损害。因此,随后的几项努力都有助于重新引入金字塔状分层布局和ViT的平移不变性。

与之前的研究不同,最近的研究从经验上揭示了ViT的表达优势在很大程度上取决于它们的宏级架构,而不是通常推测的token mixer。更重要的是,通过先进的训练设置和结构现代化,ConvNets可以在不增加计算预算的情况下轻松提供与经过良好调整的ViT相当甚至更优异的性能。然而,现有方法仍然存在一个表示瓶颈:自注意力机制或大内核的实现阻碍了区分性上下文信息和全局交互的建模,导致DNN和人类视觉系统之间的认知差距。与特征整合理论一样,人脑不仅提取局部特征,而且同时聚合这些特征以进行全局感知,这比DNN更紧凑和高效。

image.png

为了应对这一挑战,作者从特征交互复杂性的角度研究了DNN的表示能力。在图3b中,大多数现代DNN倾向于编码极低或高复杂性的相互作用,而不是信息最丰富的中间相互作用。为此,作者涉及了一个具有相应基本操作的宏ConvNet框架,并进一步开发了一个名为多阶门控聚合网络(MogaNet)的新型ConvNets家族,用于加速具有多重交互复杂性的上下文信息。

在MogaNet中,根据人类视觉引入了一个多阶特征聚合模块。作者的设计将局部感知和上下文聚合封装到一个统一的空间聚合块中,在该块中,复合多阶关联通过并行的选通机制被有效地聚合和上下文。从通道方面来看,由于现有方法易于实现高通道信息冗余,因此定制了一个简单而有效的通道聚合块,该块对输入特征执行自适应通道重分配,并以较低的计算成本显著优于主流对应方(例如SE模块)。

image.png
大量实验表明,在ImageNet-1K和多种下游基准上,MogaNet在不同模型尺度下的性能和效率令人印象深刻。经验证明,交互复杂性可以作为高质量视觉识别的重要指标,如感受野。因此,通过1.44G FLOP和5.2M参数,MogaNet-T在ImageNet-1K上使用默认和优化的训练策略,实现了79.6%和80.0%的top-1准确率,在相同设置下,以2.04G的FLOP超过了先前最先进的ParC-Net-S 1.0%。此外,MogaNet-S以4.97G FLOP和25.3M参数达到83.4%的top-1精度,与流行的小型模型相比,产生了可观的计算开销,如图1所示。

2、准备工作

由于ViTs在许多视觉任务中大大超过了规范的 ConvNet,一些工作试图解释是什么使ViTs工作。这里从整体框架和基本操作两个方面提出了一个全面的宏观架构。

2.1、总体结构

image.png

最近的研究表明,其固有的框架使ViTs优于ConvNet。因此,首先介绍了一个针对ConvNet的分层设计,它考虑了vit的优点,如图2所示。它主要包括3个基本组成部分:

  1. embedding stem
  2. spatial mixing block
  3. channel mixing block

embedding stem是经典ConvNets和ViTs的关键组成部分,它对输入图像进行降采样,以减少图像固有的冗余和计算过载。给定H×W分辨率中的X作为输入图像或前一阶段的输出,在每个阶段开始时将stem视为“尺寸控制器”:

image.png

其中,Z被降采样到H/2×W/2分辨率。然后,特征在每个阶段流到一堆残差块。网络模块可以被解耦为两个独立的组件:SMixer和CMixer,用于空间上和通道上的信息传播,

image.png

其中,Norm是一个归一化层,例如,批处理归一化(BN)。请注意,SMixer可以是各种空间操作(例如,自注意力,卷积),而CMixer通常是通过 inverted bottleneck 中的通道级MLP和r的扩展比来实现的。

2.2、重新审视基本操作

如何有效地学习上下文和鲁棒特征是视觉表征学习的主要主题。将与表达能力相关的两种重要操作分类:区域性感知和上下文聚合。
image.png

1、区域性感知

原始图像具有局部结构,并且在空间空间中具有高度冗余。这一性质要求使用局部和结构归纳偏差来有效提取上下文表示。作者总结了这些操作和网络模块,它们静态地提取作为区域性感知的上下文特征,并将其定义为,其中可以是任意的二进制运算符(例如,点积、卷积、逐元素积),表示可学习的权重。

image.png

2、上下文聚合

除了局部特征之外,高级语义上下文建模对于视觉识别也是至关重要的。经典ConvNets通常使用这些模块的深层堆栈来捕获受其感受野限制的远距离交互。然而,这些设计可能在计算上效率是低下的,并可能会产生冗余特征。

为了解决这一难题,本文提出了上下文聚合模块,以自适应地探索和强调潜在的上下文信息,并减少输入特征中的冗余。形式上将上下文聚合概括为一系列网络组件,这些组件自适应地捕获两个嵌入特征之间的交互:

image.png

image.png

与自注意力不同,选通单元在线性复杂度中使用元素乘积,例如,表1最后两行中的Gated linear unit(GLU)和 Squeeze-and-Excitation(SE)模块。然而,它们仅使用全局平均池化(GAP)聚合每个位置或整个上下文的信息,这缺乏空间相互作用。

3、多阶交互视角中的表示瓶颈

对DNN表示能力的分析为解释和识别现有DNN提供了新的视角。与之前主要关注DNN的鲁棒性和泛化能力的研究相比,作者将范围扩展到特征交互复杂性的研究。

image.png

通过相互作用强度的平均值归一化,相对相互作用强度与测量DNN中编码的相互作用的复杂性。

image.png

在图3b中经验性地表明,大多数当前的DNN更倾向于编码过度低阶或高阶的相互作用,而通常缺少信息最丰富的中阶相互作用。从作者的角度来看,这种表示瓶颈可能归因于上述区域性感知和上下文聚合操作的不当组合,这将不利的交互偏见注入到深层架构中。

4、本文方法

4.1、概览MogaNet

image.png

4.2、多阶门控聚合

特征整合理论表明,人类视觉通过提取基本的上下文特征并将个体特征与注意力相关联来感知目标。然而,正如在第3节中经验性讨论的那样,仅存在区域性感知或语境聚合不足以同时学习不同的语境特征和多秩序互动。

图3b显示了传统DNN倾向于关注低阶或高阶相互作用。他们错过了最丰富的中阶交互。因此,主要的挑战是如何有效地捕捉上下文中的多阶交互。

image.png

image.png

1、多阶上下文特征

作为一个纯卷积结构,作者提取具有静态和自适应区域感知的多阶特征。除了模阶交互作用外,还有两个不重要的交互作用,每个patch本身的0阶交互作用和覆盖所有patch的一阶交互作用,可以用Conv1×1(·)和GAP(·)来建模。为了迫使网络关注于多阶交互作用,本文提出了来动态地排除不重要的交互作用,其表述为:

image.png
image.png

请注意,与ConvNeXt中使用的DW7×7相比,建议的FD(·)和多阶DWConv层只需要少量额外的计算开销和参数,例如,+多阶和+FD(·)比DW7×8增加了0.04M参数和0.01G FLOPS,如表2所示。

2、门控聚合

image.png

使用所提议的SA块,MogaNet捕获了更多的中间阶交互,如图3b所示。SA块产生与ConvNeXt相似的高质量多阶表示,这远远超出了现有方法的覆盖范围,而不需要应用成本消耗的聚合。

4.3、按通道聚合重新分配多阶特征

image.png

如图5b所示,需要大量的参数(默认为4或8)来实现预期的性能,但计算效率较低。

image.png

image.png

image.png

image.png

5、架构细节

image.png

image.png

6、实验

6.1、分类

image.png

image.png

6.2、目标检测与实例分割

image.png

6.3、语义分割

image.png

作者:小书童
文章来源: 集智书童

推荐阅读

更多嵌入式AI干货请关注 嵌入式AI 专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。
推荐阅读
关注数
18757
内容数
1316
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息