Happy · 2021年12月23日

Transformer新秀:多块嵌入+多路径=MPViT

image.png
arXiv: 2112.11010, code: https://git.io/MPViT

Abstract

本文对多尺度块嵌入与多路径结构进行探索,构建了MPViT(Multi-path Vision Transformer, MPViT)。结合重叠卷积块嵌入,MPViT可以同时对不同尺度、相同序列长度特征进行嵌入聚合。不同尺度的Token分别送入到不同的Transformer模块中(即并行架构)以构建同特征层级的粗粒度与细粒度特征的。
image.png
借助于灵活的多尺度特征表达,在不同任务(包含ImageNet分类、COCO目标检测以及ADE20K语义分割)下,不同大小的MPViT均取得了比已有Transformer更优的性能,可参考下图。
image.png

Method

image.png
上图给出了本文所提MPViT整体架构示意图,它是一种多阶段架构,旨在提供一种用于稠密预测的强力骨干网络。

由于多阶架构具有高分辨率特征,故本文采用了CoaT中的自注意力机制以降低计算量;正如LeViT一文提到:卷积Stem模块具有更好的low-level表达能力,故我们采用了卷积Stem模块。此外,每个卷积后接BN与HardSwish激活函数。而Stage2-5部分则由本文所提多尺度块嵌入与多路径Transformer构建。

Multi-scale Patch Embedding

image.png

Global-to-Local Feature Interaction

为进一步对多路径特征进行聚合,我们设计了一种新的特征聚合模块。可表示如下:
image.png

Experiments

image.png
上表给出ImageNet分类任务上不同方案的性能对比,可以看到:

  • 在同等参数量与计算复杂度约束下,MPViT取得了比有ViT架构更优的性能;
  • MPViT-XS与Small分别比CoaT-Lite Mini与Small性能高2.0%、1.1%;
  • MPViT-Small具有更大网络PVT-L、DeiT-B/16、XCiT-M24/16更优的性能;
  • MPViT-B以74M参数量取得了84.3%的指标,超过了近期同等参数的Swin-Base以及Focal-Base。
    image.png
    上表给出了COCO检测任务上不同方案的性能对比,从中可以看到:
  • 相比同尺寸的其他ViT方案,MPViT均取得了更优的性能;
  • 基于RetinaNet,MPViT-S取得了47.6%的指标,超越了Swin-T与Focal-T;
  • 基于Mask R-CNN,MPViT-XS与MPViT-S优于同尺寸的CoaT-Lite Mini与Small;值得一提的是,MPViT-S取得了比XCiT-M24/8和Focal-B更高的指标,同时具有更少的FLOPs。
    image.png
    上图给出了ADE20K分割任务上的性能对比,从中可以看到:
  • MPViT优于其他同尺寸的ViT方案;
  • MPViT-S以48.3%的指标大幅超越了Swin-T、Focal-T以及XCiT-S12/16;
  • MPViT-B以50.3%的指标超越了近期SOTA方案Focal-B。
首发:AIWalker
作者:happyaiwalker

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏深度学习从入门到精通
推荐阅读
关注数
6195
内容数
191
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息