Happy · 2022年01月07日

CrossSR | 高文团队提出Cross卷积,显著提升结构保持性能

image.png
https://arxiv.org/abs/2201.01458

1 Abstract

作者设计了一种分层特征挖掘网络,它通过多尺度特征融合方式探测、保持结构信息。首先,基于传统边缘检测器提出了Cross卷积进行边缘特征定位与表达;然后,设计了带特征规范化与通道注意力的CCB模块以对特征固有的相关性进行考量;最后,将Cross卷积嵌入到MFFG模块并以分层方式挖掘结构特征相关性,构建了结构保持网络Cross-SRN

实验结果表明:CrossSRN取得了与其他SOTA方案相当甚至更优的复原性能,同时具有精确且清晰的结构细节。与此同时,我们定义了一种选择具有丰富结构纹理图像的准则。所提CrossSRN在所选基准数据集上取得了更优的性能,说明所提方案具有更好的边缘保持优势。
image.png

2 Method

image.png
上图给出了所提方案整理架构示意图,架构风格与IMDN相似,区别主要有两部分:

  • 核心模块,即MFFG部分,这里也是大部分网络架构的区别所在。
  • body的fuse部分,IMDN采用了类似RDN的多尺度融合,即把各个IMDB的输出都进行了融合;而CrossSRN则是采用类似EDSR仅对最后模块的输出融合。
    image.png

Cross Convolution

image.png
上图给出了常规卷积与本文所提Cross卷积的示意图,Cross卷积其实就是两路并行非对称卷积,可以表示如下:
image.png
Cross卷积通过两路并行的非对称卷积对水平与垂直梯度信息进行探索以聚焦于边缘信息挖掘。相比常规卷积,Cross卷积具有更少的参数量与计算复杂度、具有相同的感受野,重要的是具有更好的结构保持能力。
image.png
上图给出了常规卷积与Cross卷积在结构保持方面的对比示意图,Cross卷积可以保持更多的梯度方向信息。为更好的说明Cross卷积的边缘保持能力,作者还提供了下图的对比图,可以看到:Cross卷积保持更多的边缘信息,验证了其结构纹理探索能力。
image.png

Multi-scale Feature Fusion Group

image.png
为获得精确的边缘信息,我们构建了CCB模块,见上图。除了Cross卷积外,CCB还包含F-Norm与CA(通道注意力,没什么可说的),两者分别用于空域与通道信息重要性挖掘。F-Norm可表示如下:
image.png
更多关于F-Norm的介绍可参考《Iterative Network for Image Super-resolution》一文,为方便理解,笔者在这里摘抄了F-Norm的实现code(是不是简单到家!)如下:

class AdaptiveFM(nn.Module):
    def __init__(self, channels, kernel_size=3):
        super(AdaptiveFM, self).__init__()
        self.conv = nn.Conv2d(channels, channels, kernel_size, padding=kernel_size//2, groups=channels)
    def forward(self, x):
        return self.conv(x)+x

image.png
由于边缘信息具有尺度敏感性,故作者将CCB以多尺度特征融合方式构建了MFFG以探索不同尺度特征,见上图(类似IMDN、RFDN的模块)。可描述如下:
image.pngimage.png
分层特征将以残差模块架构进行聚合,故MFFG的输出可表示如下:
image.png
也就是说,MFFG即可保持原始信息,亦可以分层方式突出结构信息。

3 Experiments

image.png

Ablation Study

我们先对Cross卷积与多尺度特征融合机制进行消融实验分析。
image.png
上表给出了不同卷积形式的性能对比,从中可以看到:Cross卷积具有最佳的PSNR/SSIM指标,同时具有更低的计算量和参数量
image.png
上图给出了不同卷积结构的可视化对比,可以看到:经Cross卷积处理后边缘特征得到了进一步增强,验证了所提方案关于结构纹理复原的能力
image.png
上表对比了Seq与Cross两种形式不同卷积核尺寸下的性能对比,可以看到:相比Seq形式,Cross形式具有更佳的性能
image.png
上表对比了多尺度特征融合方面的性能,可以看到:

  • 相比无MFF形式的模块,所提MFFG特征融合机制具有相当的性能,同时参数量减半
  • 移除CCB模块后,模型性能大幅下降:0.1-0.2dB。
    image.png
    上图给出了MFFG中不同组的特征可视化,可以看到:经CCB处理后,边缘与纹理结构变得更为清晰锐利
    image.png
    上表对比了CA与FN对性能影响,可以看到:移除F-Norm会带来0.06dB@Manga109性能下降;移除CA会带来0.05dB@Urban100性能下降。

Comparison with SOTA Methods

image.png
上表给出了所提方案与其他方案的性能对比,可以看到:

  • CrossSRN取得了相当、甚至更优的性能,90%取得了最佳或次佳;
  • 相比DEGREE,CrossSRN具有更佳的性能;
  • 相比SeaNet,CrossSRN在所有尺度与基准数据上取得了90%最佳或次佳,同时参数量仅需43%。这说明:CrossSRN能够以更少参数量、更高效的进行结构复原。
    image.png
    上表对比了不同方法在新构建数据及上的性能对比,可以看到:相比其他,CrossSRN具有更优的结构信息保持能力。图像超分怎么可以没有图示呢,看看下面几个图示对比,显然:CrossSRN具有更好的结构纹理复原能力
    image.png
    最后,附上关于模型推理速度方面的对比,见下表。CrossSRN具有最佳指标,更快的速度(慢于CARN,但性能更佳)。
    image.png

4 吐槽时刻

我们先看一下笔者汇总的下面几个表吧,对比了CrossSRN、IMDN以及RFDN的性能(注:原文并没有提供RFDN的指标),很明显:CrossSRN被RFDN“摩擦”了吧,嗯嗯,差不多就是这个意思。
image.png
借《飞驰人生》中一句“一顿操作猛如虎,仔细一看原地杵”,嗯嗯,可能说的就是CrossSRN。为啥这么说呢,看看下表几个模型的通道数、模块数等方面的信息对比。
image.png
无论是通道数,还是模块数,CrossSRN都要比RFDN多,但性能反而更低(当然,由于CrossSRN用的是Cross卷积,计算量会小一些,可能这也是它使用这么多模块数的原因吧)。美中不足的是,RFDN预训练模型并未全部开源(仅开源了一个参赛用的轻量模型)。

CrossSRN虽然性能未能真正达到SOTA,不过它提供的Cross卷积思路还是值得借鉴一下滴,对于轻量型超分架构设计还是有点参考价值的,有兴趣的小伙伴可以去尝试一下。

首发:AIWalker
作者:happyaiwalker

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏AIWalker
推荐阅读
关注数
6194
内容数
191
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息