arXiv: 2112.11010, code: https://git.io/MPViT
Abstract
本文对多尺度块嵌入与多路径结构进行探索,构建了MPViT(Multi-path Vision Transformer, MPViT)。结合重叠卷积块嵌入,MPViT可以同时对不同尺度、相同序列长度特征进行嵌入聚合。不同尺度的Token分别送入到不同的Transformer模块中(即并行架构)以构建同特征层级的粗粒度与细粒度特征的。
借助于灵活的多尺度特征表达,在不同任务(包含ImageNet分类、COCO目标检测以及ADE20K语义分割)下,不同大小的MPViT均取得了比已有Transformer更优的性能,可参考下图。
Method
上图给出了本文所提MPViT整体架构示意图,它是一种多阶段架构,旨在提供一种用于稠密预测的强力骨干网络。
由于多阶架构具有高分辨率特征,故本文采用了CoaT中的自注意力机制以降低计算量;正如LeViT一文提到:卷积Stem模块具有更好的low-level表达能力,故我们采用了卷积Stem模块。此外,每个卷积后接BN与HardSwish激活函数。而Stage2-5部分则由本文所提多尺度块嵌入与多路径Transformer构建。
Multi-scale Patch Embedding
Global-to-Local Feature Interaction
为进一步对多路径特征进行聚合,我们设计了一种新的特征聚合模块。可表示如下:
Experiments
上表给出ImageNet分类任务上不同方案的性能对比,可以看到:
- 在同等参数量与计算复杂度约束下,MPViT取得了比有ViT架构更优的性能;
- MPViT-XS与Small分别比CoaT-Lite Mini与Small性能高2.0%、1.1%;
- MPViT-Small具有更大网络PVT-L、DeiT-B/16、XCiT-M24/16更优的性能;
- MPViT-B以74M参数量取得了84.3%的指标,超过了近期同等参数的Swin-Base以及Focal-Base。
上表给出了COCO检测任务上不同方案的性能对比,从中可以看到: - 相比同尺寸的其他ViT方案,MPViT均取得了更优的性能;
- 基于RetinaNet,MPViT-S取得了47.6%的指标,超越了Swin-T与Focal-T;
- 基于Mask R-CNN,MPViT-XS与MPViT-S优于同尺寸的CoaT-Lite Mini与Small;值得一提的是,MPViT-S取得了比XCiT-M24/8和Focal-B更高的指标,同时具有更少的FLOPs。
上图给出了ADE20K分割任务上的性能对比,从中可以看到: - MPViT优于其他同尺寸的ViT方案;
- MPViT-S以48.3%的指标大幅超越了Swin-T、Focal-T以及XCiT-S12/16;
- MPViT-B以50.3%的指标超越了近期SOTA方案Focal-B。
首发:AIWalker
作者:happyaiwalker
推荐阅读
- 超越SwinIR,Transformer再一次占领low-level三大任务
- AdaDM: 让超分网络不仅可以用BN,性能还可以更优
- RealBasicVSR:BasicVSR再次升级,破局真实场景视频超分
本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏深度学习从入门到精通。