Happy · 2023年01月17日

YOLOv6 v3.0 | 重磅升级!性能超越V8!

image.png

YOLOv6 v3.0的主要贡献简述如下:

  • 对检测器的Neck部件进行了翻新:引入BiC(Bi-directional Concatenation)提供更精确的定位信息将SPPF简化为SimCSPSPPF,牺牲较少的速度提升更多的性能
  • 提出一种AAT(Anchor-aided training)策略,在不影响推理效率的情况下同时受益于Anchor-basedAnchor-free设计理念。
  • 对YOLOv6的Backbone与Neck进行加深,在更高分辨率输入下达成新的SOTA性能。
  • 提出一种新的自蒸馏策略提升YOLOv6小模型的性能,训练阶段采用更大的DFL作为增强版辅助回归分支。

本文方案

image.png

Network Design

在网络架构方面,本文主要从Neck与SPP两个维度进行改进:

  • 在Neck方面,本文设计了一种增强的PAN模块,它次用BiC模块对三个近邻层特征进行集成(可参考上图b),额外引入了。这种处理截止可以保留更精确的定位信息,对于小目标定位非常重要。
  • 在SPP方面,本文对YOLOv5 v6.1版本的SPPF进行了简化,得到了所谓的SimCSPSPPF(可参考上图c)。

Anchor-Aided Training

image.png

YOLOv6是一种追求更高推理速度的Anchor-free检测器。然而,作者发现:在同等配置(YOLOv6-N)下,相比Anchor-free方案,Anchor-based方案可以带来额外的性能增益,见上表。

image.png

有鉴于此,作者提出了AAT策略(即Anchor辅助训练,见上图),它引入了一个Anchor-based辅助分支以组合两种方案的优势。通过这种训练策略,源自的辅助分支的引导信息可以被有效的嵌入到Anchor-free分支。在推理阶段,辅助分支将被移除掉。也就是说,AAT策略属于"赠品",加量不加价的那种

Self-distillation

image.png
由于DFL会对回归分支引入额外的参数,极大程度影响小模型的推理速度。因此,作者针对小模型设计了一种DLD(Decoupled Localization Distillation)以提升性能且不影响推理速度。具体来说,在小模型中插入一个增强版回归分支作为辅助。在自蒸馏阶段,小模型受普通回归分支与增强回归分支加持,老师模型近使用辅助分支。需要注意:普通分支仅采用硬标签进行训练,而辅助分支则用硬标签与源自老师模型的软标签进行训练。完成蒸馏后,仅普通分支保留,辅助分支被移除。这种训练策略又是一种加量不加价的"赠品"。

Experiments

image.png

上表给出了不同方案的性能对比,可以看到:

  • 相比YOLOv5-N、YOLOv7-Tiny,YOLOv6-N指标分别提升9.5%、4.2%,同时具有最佳速度。
  • 相比YOLOX-S、PPYOLOE-S、YOLOv6-S指标分别提升3.5%、0.9%且速度更快;
  • YOLOv6-M比YOLOv5-M指标高4.6%、速度相当,比YOLOX-M、PPYOLOE-M指标高3.1%、1.0%且速度更快;
  • 除了比YOLOv5-L更高更快外,YOLOv6-L比YOLOX-L、PPYOLOE-L分别高3.1%、1.4%且速度相当。
  • 相比YOLOv8,YOLOv6在所有尺寸下取得了相当的精度,同时具有更优的吞吐性能。

除了上述常规模型尺寸外,作者还进一步提升了输入分辨率并添加了C6特征,与YOLOv5等方案对比:

  • 相比YOLOv5系列(即YOLOv5-N6/S6/M6/L6/X6),YOLOv6具有更高的AP、相当的速度;
  • 相比YOLOv7-E6E,YOLOv6-L6指标高出0.4%,推理速度快36%。

更多消融实验,请移步原文。这里略过不提。

来源:AIWalker
作者: Happy

推荐阅读

本文章著作权归作者所有,任何形式的转载都请注明出处。更多动态滤波,图像质量,超分辨相关请关注我的专栏AIWalker。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。
推荐阅读
关注数
6199
内容数
192
夯实深度学习知识基础, 涵盖动态滤波,超分辨,轻量级框架等
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息