Happy · 2020年02月17日

效果好速度还好的图像去噪:BRDNet

DCNN在图像去噪领域取得了极大的关注,然而仍存在两个缺陷:(1)训练困难;(2)性能饱和。
为解决上述问题,作者设计了一种称之为BRDNet的网络架构,它包含两个网络用于提升网络的宽度,同时获取更多特征。BRN的应用缓解了internal covariate shift与小批次问题;采用残差学习方式加速训练;采用扩张卷积提升感受野获取更多信息。作者通过充分实验验证了所提方法的优异性能。
来源: https://zhuanlan.zhihu.com/p/107080082
文章作者: Happy

Image Denoising using Deep CNN with Batch ReNormalization (论文文末可下载)
code

Method

Framework

1.png

上图给出了所提方法的网络架构示意图,它包含上下两个分支。上分支仅仅包含残差学习与BRN;下分支包含BRN、残差学习以及扩张卷积。一般而言:网络感受野越大,计算量越大。作者采用扩张卷积提升感受野而不增加计算量。

上分支网络包含两种不同类型的层:Conv+BRN+ReLU与Conv。它的深度为17,前16个层为Conv+BRN+ReLU,最后一层为Conv。特征图通道数为64,卷积核尺寸为3.

上分支网络同样包含17层,但其1,9,16层为Conv+BRN+ReLU,2-8,10-15为扩张卷积,最后一层为Conv。卷积核尺寸为3,通道数为64.

两个分支结果经由Concat组合并经Conv得到噪声,最后采用原始输入减去该噪声即可得到清晰无噪图像。

整个BRDNet合计包含18层,相对比较浅,不会导致梯度消失与梯度爆炸问题。该网络的设计思想源自以下几个方面的思考:

  • 通过两个自网络提升宽度而非深度达到改善去噪性能的目的;
  • 采用BRN解决小批次与internal covariate shift问题;
  • 采用残差学习防止梯度消失与梯度爆炸;
  • 采用扩张卷积节省计算量。

Loss

受DnCNN影响,作者选用MSE作为损失函数对网络参数进行优化,优化器选择Adam。

BRN,DilateConv,RL

BRDNet的设计有以下几个方面的考虑:

(1)更深的网络存在梯度消失与爆炸问题,通过提升宽度降低深度进而缓解梯度消失与梯度爆炸问题;
(2)卷积可能导致数据分布发生变化,BN是一种有效的方法,但其存在小批次时性能下降问题,作者采用BRN替代BN改进收敛效率;
(3)更深的网络可以提取更精确的特征,但是同时具有更高的计算量,作者采用扩展卷积提升感受野,降低计算量。

Experiments

消融实验分析见下表。
2.png

合成数据测试效果对比图
3.png

在测试数据集上的性能对比分析
4.png

在真实场景图像上的去噪性能对比
5.png

算法耗时对比分析
6.png

Concolusion

作者从实际训练与应用场景出发,提出了一种新颖的去噪网络BRDNet。它采用双分支结构降低网络深度,采用扩张卷积提升感受野,采用残差学习降低训练难度。最后通过实验验证了所提方法的优异性能:速度快效果还好,你说气人不气人

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏深度学习从入门到精通
文件名 大小 下载次数 操作
Image Denoising using Deep CNN with Batch ReNormalization.pdf 4.04MB 1 下载
推荐阅读
关注数
6199
内容数
192
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息