Happy · 2022年03月28日

CVPR2022 | DyRep让重参数化机制动态调整,涨点同时还减少训练耗时

image.png

结构重参数(Structural Re-parameterization)已在多领域证实了其优秀的"涨点"优势,相关研究有如下几篇:

已有的方案均是对所有操作通过重参数机制进行结构增广,这种“静态”处理机制会导致了昂贵的训练代价。为解决该问题,本文设计了一种DyRep(Dynamic Re-parameterization)方案以最小代价引导训练,DyRep将重参数技术编码到训练过程中对网络结构进行动态进化

相比“静态”重参数机制,本文所提DyRep效率更高:它可以对给定网络平滑进化而非构建一个过参数化网络。DyRep可以提升ResNet18的性能达2.04%,同时训练耗时降低22%。

image.png

1Method

关于结构重参数可行的指导准则可参考DBB一文中的描述,这里不再赘述,我们仅对DyRep的核心思想进行简单介绍。

CVPR2021|“无痛涨点”的ACNet再进化,清华大学&旷视科技提出Inception类型的DBB

image.png

上述给出了本文所提DyRep方案示意图,它聚焦于在训练阶段对网络贡献最大的分支进行自适应增广,而非常规的训练前“静态”增广方式。

Minimizing Loss with Dynamic Structures

在DyRep中,不同分支的贡献通过其梯度信息评估,也就是说:小梯度对应低贡献,进而代表分支冗余。DyRep的评估方案是在synflow基础上扩展而来,表示如下:

注:表示分支的参数。通过上述公式,我们逐渐对贡献最大的分支进行重参数扩展,这意味着:该方案可以进行递归重参数化以达成更丰富的表示形式。

image.png

上图给出了本文所用到的重参数流程:在定位到最重要的分支后,我们采用重参数技术将其从单一卷积扩展为DyRep模块,扩展分支的参数随机初始化。为确保扩展前后的等价性,对其参数进行如下处理:

注:表示增广分支的随机初始化参数。此外,为稳定训练,我们对所添加的BN层参数进行如下设置:。对于均值与标准差两个统计信息,我们进行20个batch的统计校正。

De-parameterizing for Better Efficiency

除了对最重要的分支进行重参数扩展外,我们还需要不重要的分支进行去冗余,称之为de-parameterization(Dep)。此时,我们将要移除的分支参数折叠到最重要分支中:

Progressive Training with Rep and Dep

image.png

上图给出了DyRep训练流程说明,通过组合Rep与Dep,网络结构可以进行更高效的增广。具体来说,DyRep每t个epoch重复一次Rep与Dep操作:

  • Rep:它包含最重要分支的选择、扩展以及参数修正;
  • Dep:它包含冗余分支定位、移除以及参数修正。

2Experiments

image.png

上表给出了ImageNet+ResNet基线上DBB与DyRep的性能对比,从中可以看到:相比DBB,所提方案可以取得显著性能提升,同时需要训练耗时更短
image.png

上表给出了所提方案与RepVGG以及RepNAS的性能对比,从中可以看到:相比RepVGG与RepNAS,DyRep取得了更高的精度。比如DyRep-B3取得了81.12%,比RepVGG-B3高0.6%,比RepNAS高0.15%。
image.png

上表给出了下游任务上的性能对比,从中可以看到:相比DBB方案,所提方案可以取得更高的性能提升

来源:AIWalker
作者:HappyAIWalker

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏AIWalker
推荐阅读
关注数
6194
内容数
191
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息