性能和推理速度之间的权衡对于实际应用至关重要。而重参化可以让模型获得了更好的性能平衡,这也促使它正在成为现代卷积神经网络中越来越流行的架构。尽管如此,当需要INT8推断时,其量化性能通常太差,无法部署(例如ImageNet上的前1精度下降超过20%)。
在本文中深入探讨了这种失败的潜在机制,其中原始设计不可避免地扩大了量化误差。作者提出了一种简单、鲁棒和有效的量化友好型结构作为补救方法,该结构也享有重参化的好处,大大弥补了RepVGG的INT8和FP32精度之间的差距。没有任何花里胡哨的Trick,通过标准的训练后进行量化,便可以将在ImageNet上的Top-1精度下降控制在了2%以内。
1、简介
尽管深度神经网络在视觉、语言和语音方面取得了巨大成功,但模型压缩已变得非常必要,特别是考虑到数据中心功耗的巨大增长,以及全球范围内资源受限的边缘设备的大量分布。网络量化作为最成熟的方法之一,它具有较低的内存成本和固有的整数计算优势,因此研究模型的量化性能也是必不可少的操作。
然而,神经架构设计中的量化意识并不是优先考虑的问题,因此在很大程度上被忽视了。然而,如果量化是最终部署的强制操作,则可能会变得有害。例如,许多众所周知的体系结构都存在量化崩溃问题,如MobileNet和EfficientNet,这需要补救设计或高级量化方案。
最近,神经架构设计中最有影响力的方向之一是重参化。其中,RepVGG在训练期间将标准的Conv-BN-ReLU改造为其相同的多分支对应,这带来了强大的性能改进,同时不会增加额外的推理成本。由于其简单性和推理优势,它受到最近许多视觉任务的青睐。然而,基于重参化的模型面临众所周知的量化困难,这是阻碍行业应用的内在缺陷。事实证明,使这种结构顺利地量化是非常重要的。标准的训练后量化方案极大地降低了RepVGG-A0的精度,从72.4%降至52.2%。同时,应用量化感知训练并不简单。
这里,特别关注RepVGG的量化难度。为了解决这个问题,作者深入分析了基于重参化的典型架构的基本量化原则。也就是说,为了使网络具有更好的量化性能,权重的分布以及任意分布的处理数据应该是量化友好的。两者对于确保更好的量化性能至关重要。更重要的是,这些原则将我们引向一种全新的设计,作者称之为QARepVGG(Quantization Aware RepVGG),它不会遭受实质性的量化崩溃,其构建块如图1所示,其量化性能得到了很大改善。
本文的贡献有3点:
- 揭示了基于重参化的架构(如RepVGG)量化中性能崩溃的根本原因。
- 设计了RepVGG的量化友好模块(即QARepVGG),该模块在权重和激活分布方面保持基本差异,同时保持突出速度和性能权衡的优势。
- 本文提出的方法在不同的模型尺度和不同的视觉任务上得到了很好的推广,实现了可以部署的出色的后量化性能。此外,提出的模型在FP32精度方面与RepVGG相当。
2、相关方法
2.1、Reparameterization Architecture Design
RepVGG在训练阶段以多个分支的形式进行的,并在推理过程中将多个分支融合成一个分支,这个融合的过程被称为重参化。后续的工作DBBNet和MobileOne通过引入多样化的组合来扩展了这种设计,增强了性能和延迟之间的权衡。这种重参化的趋势也适用于最近的目标检测方法,如PPYOLO-E、YOLOv6和YOLOv7。
2.2、Quantization
量化是一种有效的模型压缩方法,它将网络权重和输入数据映射到较低精度(通常为8位)以进行快速计算,这大大降低了模型大小和计算成本。在不影响性能的情况下,在部署之前,大多采用量化来提高速度,这是工业生产中的事实标准。
训练后量化(PTQ)是最常见的方案,因为它只需要几批图像来校准量化参数,并且不需要额外的训练。还提出了量化感知训练(QAT)方法来提高量化精度,例如仅整数算术量化、无数据量化、硬件感知量化、混合精度量化以及零样本量化。由于QAT通常涉及到对训练代码的开发,并且需要额外的成本,因此仅当训练代码在手边并且PTQ不能产生令人满意的结果时才使用QAT。为了最好地展示所提出的量化感知架构,作者主要使用PTQ评估量化精度。同时,还通过实验证明了它对QAT也是有益的。
2.3、Quantization-aware architecture design
在《A quantization-friendly separable convolution for mobilenets》中提出了一种量化友好的可分离卷积替换方法,其中定义了一种称为信噪比(SQNR)的度量来诊断网络各组成部分的量化损失。它还认为,权重应服从均匀分布,以促进量化。
众所周知,Swish-like激活会带来量化崩溃,这要么是需要一个精细的可学习的量化方案来恢复,要么是被RELU-6取代,就像EffificientNet-Lite一样。
BatchQuant利用一次性神经结构搜索鲁棒混合精度模型,无需再训练。
2.4、Quantization for Reparameterization Network
基于重参化的架构由于其固有的多分支设计而增加了动态数值范围,因此存在量化困难。通过PTQ使重参化模型的精度下降是不可接受的。由于部署模式下的重参化网络缺乏BN层,因此使用QAT难以提高量化精度。
据作者描述,RepOpt-VGG是唯一一个通过构建一个两阶段的优化管道来努力解决这个量化问题的相关工作。RepOpt-VGG认为量化困难是由于fused kernels的量化参数分布造成的。
本文作者重新研究了这个问题,发现它要复杂得多,而且巨大的量化误差是权重和激活的协同效应的结果。
3、本文方法
一些源可能会在标准量化管道QAT中引入误差。作者选择均方误差(MSE)作为Hptq之后的度量来度量一个张量的量化误差,
对于基于重参化的体系结构,有两个主要组件,权重和激活,它们需要量化,并可能导致精度下降。激活也可以作为下一层的输入,误差会逐步增加累积。因此,神经网络良好的量化性能主要需要两个基本条件:
- C1:权重分布有利于量化
- C2:激活分布(即模型如何响应输入特征)易于量化
根据经验,违反其中任何一种都会导致较低的量化性能。以RepVGG-A0为例,研究了为什么基于重参化的结构的量化是困难的。
3.1、深入探讨重参化结构的量化失效问题
作者首先用RepOpt的代码再现了RepVGG-A0的性能,如表1所示。在此基础上可以进一步控制实验设置。作者用PTQ的标准设置对RepVGG-A0进行量化,并评估INT8的准确性,从72.2%下降到了50.3%。
请注意,在融合多分支后使用已部署的模型,因为未融合的模型会导致额外的量化误差。这个Trick在流行的量化框架中被广泛使用。
在图2和图14a(附录)中说明了RepVGG-A0的权重分布。观察到权值在0附近分布得很好,并且不存在特定的离群值,因此它满足C1。这导致我们验证c2,如果它是激活,极大地恶化了量化。
不幸的是,激活是输入依赖的,并通过卷积与学习到的权值相结合。从理论上讲,通过假设输入和权重的任何分布来得出一些结论是很重要的。相反,可以相对地分析每个分支的标准差。
值得注意的是,优化器被鼓励扩大分母,以最小化这种损失,从而放大了激活的方差,并带来了量化困难。
除了理论分析,作者提供了一个简单的消融,通过去除Eq 5中的分母,
在表2中报告了结果。在没有分母项时,FP32的准确率为71.5%,比基线值低0.7%。然而,令人惊讶的是,量化性能大大提高到61.2%。虽然在实践中仍然不可接受,但本实验表明自定义权重衰减策略有助于建立一个更强的FP32模型,具有良好的权重分布,但同时扩大了激活的方差,产生量化崩溃。这促使作者放弃这个设计,继续改进。
3.2、量化友好的重参化
在这里,作者回顾了多个设置(S1-S4),以逐步解决量化崩溃。
1、S1——Normal
但是,此设计也不满足应用程序的要求。由于没有显式的正则化器来扩大激活方差,因此可以直接检查权值的分布,如图3和图13所示。第5层和第6层的融合权值分布具有较大的标准方差(分别为2.4和5.1),比其他层大约两个数量级。
具体来说,来自第5层和第6层的融合权值的最大值分别为692.1107和1477.3740。这就解释了为什么量化性能不好。由于权重的量化过程与输入或激活无关,违反C1会导致不可修复的误差。作者重复实验了三次,这种现象均出现。
2、S2(无BN)
解决S1满足C1问题的一个简单方法是从Identity分支1中删除BN分支。作者将此设置命名为S2,并在表3中显示了结果。
对权重量化的误差分析(见图9)表明,该设计确实符合C1的要求。该模型的FP32的精度为70.7%,INT8的精度为62.5%,这仍然是不可行的。这促使作者去验证它是否违反了C2。
由于权值是通过最小化整个训练集的损失函数来获得的,因此合理地推导出它们对偏差的贡献是很重要的。把3个分支的统计数据的期望写成,
证明:
S3(No BN for Identity and 1×1)
如果3×3和1×1具有相同的平均值,则它们的求和容易扩大方差。为了更好地控制方差,作者进一步删除了1×1分支中的BN。将此设置命名为S3,并在表3中显示了结果。
该设计在ImageNet上实现了70.1%的top-1 FP32精度和69.5%的INT 8精度,大大提高了量化性能。然而,FP32的精度仍然很低。
S4(Post BN on S3)
由于3个分支的添加引入了协变量移位问题,在添加3个分支后添加了额外的BN以稳定训练过程,并将此设置命名为S4(下图)。
Post BN不会影响用于部署的等效kernel融合。这进一步提高了A0模型的FP32精度,从在ImageNet上的70.1%提高到72.2%。此外,其INT8的准确率提高到70.4%。到目前为止,已经大大解决了量化失败的问题,并将S4下的网络称为QARepVGG。
4、实验
4.1、消融实验
1、变体结构设计
作者研究了不同设计的量化性能,并将结果显示在表5中。注意,当完全去除BN时,模型无法收敛。尽管后置BN的设置仅具有71.1%的INT8 top 1精度,但其FP32精度也比较低。量化间隙随着模型容量的增长(从A0到B0)而增大。
2、与RepOpt-VGG比较
RepOpt-VGG采用了梯度重参的方法,它包括两个阶段:搜索量化表和使用所获得的量化表进行训练。RepOpt的量化精度取决于Scale的搜索质量。
由于只发布了少数预训练的模型,按照RepOpt重新训练RepOpt-VGG-A0/B0模型。也就是说,在CIFAR-100上运行了240个Epoch的超参数搜索,并在ImageNet上运行完整的120个Epoch。可以用正式发布的量化表来复制RepOpt-VGG-B1的结果。然而,很难找到A0/B0具有可比性能的良好scale。
如表6所示,RepOpt-VGG-A0在ImageNet上达到了70.3%,比RepVGG低2.1%。虽然比RepVGG好得多,但它们的PTQ精度仍然太低。相比之下,本文的方法在明显的边缘上优于RepOpt。此外,本文方法没有敏感的超参数或额外的训练成本。
3、 误差分析
为了了解量化误差是如何传播的,作者对图6中的RepVGG-A0和QARepVGG-A0进行了每层MSE分析。RepVGGA0对量化更为敏感,随着累积误差变得无法忍受,就会出现崩溃。
考虑到RepVGG-A0满足C1,作者对一批图像进行采样,以描述图7中两者对C2的差异。本文的方法产生了更小的标准方差和最小/最大值的更好的激活分布,从而确保了更好的量化性能。
4、QARepVGG的QAT
量化感知训练通常用于进一步提高量化性能。然而,将QAT应用于RepVGG并不简单。相比之下,在QARepVGG上应用它很简单,因为它的后BN可以保留以方便训练。表7中所示的所有模型都训练了10个阶段(前三个阶段用于预热),初始学习率为0.01。QARepVGG的量化差距在0.3%以内。
4.2、目标检测
为了进一步验证QARepVGG的通用性,在YOLOv6等目标检测器上测试了本文方法。尽管YOLOv6通过使用RepOpt VGG缓解了这个问题,但该方法是不稳定的,需要仔细的超参数调整。
作者将“tiny”和“small”模型变量作为比较基准。在COCO 2017数据集上训练和评估QARepVGG型YOLOv6,并严格遵循其官方设置。结果如表8所示。RepVGG和QARepVGG版本在8个Tesla-V100 GPU上训练了300个Epoch。RepOpt需要额外的300个Epoch来搜索Scale。
值得注意的是,YOLOv6s RepVGG通过PTQ出现了约7.4%mAP的巨大量化退化。YOLOv6t RepVGG稍好一些,但在实际部署中,3%mAP的减少再次是不可接受的。
相反,YOLOv6s/t-QARepVGG的FP32精度与RepVGG相似,而INT8精度下降限制在1.3%mAP以内。YOLOv6 RepOpt VGG也可以提供比YOLOv6 RepVGG更好的PTQ精度。然而,这需要双倍的成本。
作者还发现,RepOpt VGG的最终精度对搜索到的超参数非常敏感,这些超参数无法鲁棒地获得。
5、总结
通过理论和定量分析,作者分析了著名的基于重参化的结构RepVGG的量化问题。它的结构缺陷不可避免地放大了量化误差,并累积产生了较差的结果。作者将其设计重构为QARepVGG,它可以生成出有利于量化的权重和激活分布。QARepVGG大大简化了最终部署的量化过程。作者强调,架构设计中的量化感知应引起更多的重视。
作者:小书童
文章来源:集智书童
推荐阅读
- xNN:支付宝端侧深度学习框架
- 谈谈TVM与领域专用架构:DSA优化思路、TVM落地挑战、硬件、NVDLA架构思考
- GTC 2022:GPU推理加速在OPPO NLP场景的优化落地
- AI时代视频云转码的移动端化:让模型设计/推理库/硬件成为一体
- 小红书LarC:应用大规模深度学习的分钟级实时推荐系统
更多嵌入式AI干货请关注嵌入式AI专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。