Happy · 2021年03月23日

你的感知损失可能用错了,沈春华团队提出随机权值广义感知损失

image.png

标题&作者团队

本文是阿德莱德沈春华老师团队在“感知损失对于结构化输出依赖性建模影响”方面的一次有意思的探索之旅。从图像生成任务中的感知损失影响出发,揭示了感知损失的成功关键在于网络结构而非预训练权值;在此基础上,将其进一步扩展到更广义的稠密预测任务(比如语义分割、实例分割等)上,并通过实验验证了所提广义感知损失的有效性;甚至,当单阶段目标检测器配上Mask翅膀上,该损失还可以进一步提升目标检测的性能。原文链接:https://arxiv.org/abs/2103.10571

Abstract

感知损失作为一种有效损失已被广泛应用在图像生成类任务中,比如图像超分、风格迁移等,感知损失的成功往往被归因于预训练模型能够提取图像的高级感知特征。

在这篇文章中,我们揭示了感知损失最关键的是其网络结构而非其预训练权重。无需任何学习,深度网络的结构足以捕获多层CNN所提取的多级统计信息之间的相关性。该发现移除了预训练与特定网络架构(通常为VGG)假设,因而引发了更广泛的应用。我们证实:基于随机权值的CNN可被用于建模输出的结构化依赖性。在多个稠密预测任务(比如语义分割、深度估计、实例分割)上,相比仅仅采用像素损失,采用扩展的随机感知损失可以进一步提升模型的性能。我们期望这种简单的、扩展感知损失可以作为一种广义结构输出损失用于结构输出学习任务中。

本文的主要贡献包含以下几点:

  • 证实感知损失的成功并非源于预训练权值,而是源于CNN结构;
  • 将所提广义感知损失应用到多个结构化输出任务上可以看到显著性能提升;
  • 探索了初始化与网络结构是如何影响所提感知损失的性能;
  • 所提感知损失可以作为一种广义结构化输出损失应用到大部分结构化输出学习任务中。

Introduction

image.png

image-20210322195448666

从上图可以看到:相比简单的像素损失,预训练VGG与随机权重VGG均取得了显著的视觉效果提升,且两者视觉效果相当。这就意味着:预训练权值并非感知损失成功的关键

Method

前述实验结果表明:感知损失成功的关键是网络结构而非预训练权重。接下来,我们将对感知损失进行扩展以适用到更多结构化输出学习任务;然后我们深入分析了权值初始化的影响并设计了一种近似方案用于有效初始化。

Generic Perception Loss

如果随机权值模型有助于捕获结构化信息,那么它同样对于稠密预测问题有效,由于不需要预训练权值,可以轻易的将其作为正则项用于任意任务并比较不同感知损失网络的性能。我们采用常规VGG网络作为出发点,采用表示最大值池化之间的卷积数量。

  • Semantic Segmentation。为将感知损失扩展到语义分割任务中,我们采用估计的分割图或者真值作为感知损失网络的输入,可以得到由CNN提取到的嵌入结构化特征,最后采用MSE最小化两者之间的距离。由于softmax输出与one-hot真值之间的域差异使得感知损失难以收敛。为解决该问题,我们参考《Structured Knowledge Distillation》采用大的老师网络生成软标签作为学习目标,此时整体损失函数定义如下:
  • Depth Estimation。深度估计是一种回归问题,它用来图像中每个像素对应的目标与camera的距离,网络将输出一个深度图像。由于真值与预测图像具有相同的统计分布,因此它们可以直接作为感知损失网络的输入。
  • Instance Segmentation。实例分割是最具挑战的CV任务之一,它需要精确的预测每个像素对应的目标和语义信息。它采用了与语义分割类似的方式,将老师网络生成的软标签作为学习目标并送入感知损失网络中。

Devils in the Initialization

image.png

Experiments

我们先对感知损失的几个感兴趣问题进行探索;然后采用一种有效的结构作为感知损失并说明其在稠密预测任务上的性能提升。

Discussions

关于感知损失,有这样几个有意思的问题:

  • Will the trained filters help the perceptual loss in dense prediction problems?
  • How does the depth/receptive filed/multi-scale losses affect the performance?
  • How does the initializaton affect the performance?

image.png

image-20210322214200624

为说明第一个问题,我们基于语义分割任务做了一个简单的实验,结果见上表。从上表数据与对比可以看到:

  • 随机权值与预训练权值在性能上几乎没有差异(差异范围在0.02%~0.06%之间);但是不同结构之间的差异非常大(从68.9%~71.25%)。这意味着:对于结构化输出学习任务来说,ImageNet上的预训练权值并非感知损失成功的关键,相反,网络结构才是其中关键因素
  • VGG类架构明显优于其他结构。已有研究同样表明:在风格迁移任务上,VGG结构的效果要优化ResNet并解释了VGG要比ResNet更为鲁棒。

为回答第二个问题,我们设计了一系列实验,包含不同深度、不同卷积核的VGG网络结构。结果见下表,可以看到:(1)预训练核不会带来性能提升,相反网络结构影响很大;(2)VGG19为其中最佳感知损失函数;(3)考虑到有效性与高效性,1,1,1,1,1组合会是最佳选择。
image.png

image-20210322214842251

与此同时,我们还给出了感受野的影响性分析,见下表。更大的核尺寸可以带来稍好的性能(从70.71%提升到71.16%)
image.png

image-20210322215202368

为回答最后一个问题,我们采用不同的初始化方法进行了对比分析,结果见下表。

image.png

image-20210322215358851

Application

image.png

image-20210322215641975

上表给出了不同语义分割数据集、不同分割网络添加该损失前后的性能对比。看一看到:广义感知损失可以一致性的提升现有语义分割网络的性能(0.21%~1.6%不等)

image.png
image-20210322215840753

上表给出了实例分割任务上的性能对比。可以看到:广义感知损失对于两个任务咋所有质量上均有显著提升。该实验进一步说明:当类似CondInst将Mask分支添加到单阶段目标检测方法上时,广义感知损失甚至可以提升目标检测的性能。

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏深度学习从入门到精通
推荐阅读
关注数
6197
内容数
191
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息