Happy · 2022年03月22日

CNN与Transformer相互促进,助力ACT进一步提升超分性能

image.png

本文提出一种用于图像超分的混合架构,它同时利用了CNN局部特征提取能力与Transformer的长程建模能力以提升超分性能。具体来说,该架构由CNN与Transformer两个分支构成,并通过信息互融合补偿各自特征表达进一步提升性能。更进一步,本文提出一种跨尺度token注意力模块,它使得Transformer可以更高效的探索不同尺度token的信息相关性。所提方案在多个图像超分数据集上取得了SOTA性能。

Method

image.png
上图给出了所提方案ACT的整体架构示意图,很明显,它也是一种类EDSR的架构,其核心在于body部分的组成。因此,我们主要对这两部分进行相似介绍,其他部分略过。ACT的body部分由于CNN与Transformer两个分支以及FusionBlock构成:

  • CNN branch: 该分支采用了RCAB模块。具体来说,我们堆叠N个RCAB模块生成如下特征。

image.png

  • Transformer branch: 在该部分,我们基于MHSA进行构建。此外,我们还添加了CSTA(Cross-Scale Token Attention)模块以探索跨尺度相关性,见上图。我们首先将浅层特征序列化为非重叠token(注:d表示每个token的维度,n表示token的数量)。此外,我们发现:位置信息对于超分而言并不重要,故我们并未对token添加位置嵌入信息。经由上述处理得到的token将被送入到Transformer分支进行处理,描述如下:

正如Fig2a所示,每个Transformer模块包含两个连续的注意力操作:MHSA与CSTA。

通过对不同尺度的QKV信息进行混合处理,CSTA可以对跨尺度信息进行探。

image.png

  • Multi-branch Feature Aggregation 如前面Fig1所示,我们需要对不同分支的特征进行融合。我们采用了上图所示的双向融合方案,该融合方式可以描述成如下公式:

Experiments

在模型配置方面,ACT有四个CNN模块、四个Transformer模块,每个CNN模块包含12个RCAB模块,通道数为64,Transformer模块的维度为576,融合模块堆叠了四个残差模块。

在模型训练方面,本文参考IPT,采用ImageNet进行训练。输入图像块尺寸固定为,常规数据增强,Adam优化器,batch=512,训练150epoch。

image.png

image.png
上表&图给出了不同方案的性能与效果对比,从中可以看到:

  • 相比其他方案,在所有尺度下,ACT与ACT均取得最/次最佳的PSNR/SSIM指标;
  • 相比IPT,受益于多尺度特征提取与融合,ACT取得了显著性能提升;
  • 相比SwinIR,ACT在Urban100上的指标高出0.3dB,证实了CSTA模块可以成功探索多尺度特征(话说,这个指标提升真的来自CSTA吗?与ImageNet训练无关吗?)。

image.png

上表从参数量与FLOPs方面对不同方案进行了对比,可以看到:尽管ACT的参数量多于EDSR、RCAN与SwinIR,但FLOPs是所有方案中最低者

来源:AIWalker
作者:Happy

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏AIWalker
推荐阅读
关注数
6194
内容数
191
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息