本文提出一种用于图像超分的混合架构,它同时利用了CNN局部特征提取能力与Transformer的长程建模能力以提升超分性能。具体来说,该架构由CNN与Transformer两个分支构成,并通过信息互融合补偿各自特征表达进一步提升性能。更进一步,本文提出一种跨尺度token注意力模块,它使得Transformer可以更高效的探索不同尺度token的信息相关性。所提方案在多个图像超分数据集上取得了SOTA性能。
Method
上图给出了所提方案ACT的整体架构示意图,很明显,它也是一种类EDSR的架构,其核心在于body部分的组成。因此,我们主要对这两部分进行相似介绍,其他部分略过。ACT的body部分由于CNN与Transformer两个分支以及FusionBlock构成:
- CNN branch: 该分支采用了RCAB模块。具体来说,我们堆叠N个RCAB模块生成如下特征。
- Transformer branch: 在该部分,我们基于MHSA进行构建。此外,我们还添加了CSTA(Cross-Scale Token Attention)模块以探索跨尺度相关性,见上图。我们首先将浅层特征序列化为非重叠token(注:d表示每个token的维度,n表示token的数量)。此外,我们发现:位置信息对于超分而言并不重要,故我们并未对token添加位置嵌入信息。经由上述处理得到的token将被送入到Transformer分支进行处理,描述如下:
正如Fig2a所示,每个Transformer模块包含两个连续的注意力操作:MHSA与CSTA。
通过对不同尺度的QKV信息进行混合处理,CSTA可以对跨尺度信息进行探。
- Multi-branch Feature Aggregation 如前面Fig1所示,我们需要对不同分支的特征进行融合。我们采用了上图所示的双向融合方案,该融合方式可以描述成如下公式:
Experiments
在模型配置方面,ACT有四个CNN模块、四个Transformer模块,每个CNN模块包含12个RCAB模块,通道数为64,Transformer模块的维度为576,融合模块堆叠了四个残差模块。
在模型训练方面,本文参考IPT,采用ImageNet进行训练。输入图像块尺寸固定为,常规数据增强,Adam优化器,batch=512,训练150epoch。
上表&图给出了不同方案的性能与效果对比,从中可以看到:
- 相比其他方案,在所有尺度下,ACT与ACT均取得最/次最佳的PSNR/SSIM指标;
- 相比IPT,受益于多尺度特征提取与融合,ACT取得了显著性能提升;
- 相比SwinIR,ACT在Urban100上的指标高出0.3dB,证实了CSTA模块可以成功探索多尺度特征(话说,这个指标提升真的来自CSTA吗?与ImageNet训练无关吗?)。
上表从参数量与FLOPs方面对不同方案进行了对比,可以看到:尽管ACT的参数量多于EDSR、RCAN与SwinIR,但FLOPs是所有方案中最低者。
来源:AIWalker
作者:Happy
推荐阅读
- CVPR2022 | RepLKNet: 大核卷积+结构重参数让CNN再次伟大
- CVPR2022 | Restormer: 刷新多个low-level任务指标
- 【炼丹手册】升级版炼丹手法助力RCAN性能媲美SwinIR
- 优于ConvNeXt,南开&清华开源基于大核注意力的VAN架构
本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏AIWalker。