爱笑的小姐姐 · 2023年03月16日

斯坦福大学最新扩散模型工作|DID|用于低光照文字识别的扩散模型

斯坦福大学最新扩散模型工作|DID|用于低光照文字识别的扩散模型

解读:Owen718

Paper title:Diffusion in the Dark:A Diffusion Model for Low-Light Text Recognition Arxiv Link:https://arxiv.org/pdf/2303.04291

主要解决的问题

DiD的核心动机是解决低光图像的退化修复、图像重建问题,由于下游文字识别任务所需的高频细节的丢失,该问题变得具有挑战性。本论文提出DiD作为一种低光图像重建的扩散模型,它可以提供与现有最先进方法相比具有质量更优良的重建效果,并且在极度嘈杂、黑暗的情况下仍可以保留高频细节。DiD的动机是在不损失细节的情况下,使准确的下游任务如文本识别在低光条件下得以实现。

简介

自动化任务已经在日常生活中变得极为流行和普遍。从高速公路上读取车牌到在自动结账队列中识别杂货,由人工智能驱动的自动化任务极大地依赖于视觉信号,如RGB图像。真实世界的成像受到噪声、光学模糊和其他畸变的影响,这使得使用图像进行下游应用变得具有挑战性。值得注意的是,处理这些图像的流程通常是由人类专家决定的,旨在满足感知和美学方面的需求。虽然这些图像仍可能被人类观察,但这些处理流程却可能无法保留高频细节。这些高频细节对于观赏体验可能没有必要,但对于下游应用——如物体分割和分类等——来说却是至关重要的。在低光环境下,图片中的光子计数很低,使得信噪比很小,这使得低光图像增强变得困难。深度学习,特别是卷积神经网络(CNNs),在解决低光图像增强方面表现出很好的效果。此外,生成模型也能够成功地将低光图像转换为高光照分布的图像。这些方法通常能够适度地修复图像美学效果,但所需要的方法不仅要修复美感,还需要重建适用于高级任务(如文本识别)所需的高频细节。因此作者提出DID (Diffusion in Dark), 主要的核心贡献包括:

  1. 引入一种新颖的低光重建方法,使用条件扩散模型,可以仅在补丁上进行训练,并重建不同分辨率的图像,从而有效减少训练时间和计算成本。
  2. 引入了用于在极度黑暗或右偏分布数据上训练扩散模型的关键归一化技术。右偏分布数据,(Right-tailed data)是指数据分布的尾部(右边)存在极端值或离群值的情况。在这种数据分布中,较小的值出现的频率较高,而较大的值出现的频率较低。这可能会导致某些统计学方法的精度下降,因为它们假设数据遵循正态或对称分布,并且不是为处理高度扭曲或不对称的分布而设计的。对于right-tailed data,常见的应对方法是使用归一化技术来调整它的分布,使其更符合正态或对称分布,以便更好地应用于统计学或机器学习方法中。
  3. 证明DiD在真实图像的低光文本识别中优于现有最先进的低光方法,而无需任何任务特定的优化。
  4. 提供了DiD与其他低光增强方法的定性和定量比较,显示即使在极度嘈杂、黑暗的情况下,DiD始终表现良好。

总的来说,DiD的核心贡献是其在保留下游任务必需的细节的同时准确重建低光图像的能力,其训练和计算的效率以及与最先进方法相比的竞争性能。

为什么是扩散模型?

DID选择了扩散模型进行低光图像重建,因为它们是一种新兴的概率生成模型类型,可生成多样化、高分辨率的图像。不同形式的扩散模型包括DDPM、基于评分的生成建模和随机微分方程。然而,它们都遵循相似的过程,其中包括向清洁样本逐渐添加噪声的正向过程,以及将退化过程反转以从噪声中恢复合理样本的反向过程。

扩散模型在许多基于图像的任务中都取得了成功,如无条件图像生成、修补、上色、图像分割和医学成像等领域。该论文指出,扩散模型特别适用于低光图像重建,因为它们保留了细致的细节,即使在极为嘈杂和黑暗的情况下也如此。DID 旨在保持下游任务所需的高频细节,同时准确重建低光图像。

方法 Method

image.png

DID训练和推理的流程图:在训练过程中,我们使用随机裁剪的多尺度图像块进行训练;在推理过程中,我们使用相同的模型权重θ来处理所有尺度的图像,并从尺度0到3依次进行推理,每个尺度的预测结果被用作后续尺度的输入条件。图像被分成小块,进行去噪处理,然后拼接回去。

训练一个高分辨率的扩散模型需要大量计算资源,并且需要在几天内通过多个GPU进行训练。此前的方法常通过采用级联策略来解决这个问题,即在多个训练阶段中训练单个模型或训练多个模型,每个模型在不同的分辨率下受训练。DID采用了一种新的训练方法,即同时使用多个分辨率来训练单个模型,并采用多尺度图像块策略(multi-scale patch-based approach)。这种训练方案可以大大减少训练时间和计算需求,DID模型只需要一个GPU并且可以在3天内训练完成。那为什么不直接把一张的图分解为多个不重叠的大小的patch,然后用于训练,从而加快训练速度呢?这是因为将低光图像分解为32x32的小块,对每个小块运行DDPM,然后将小块拼接在一起,会导致不同小块之间在曝光和白平衡方面存在不一致性。因此,需要一个方法来约束所有小块具有相同的外观。为此,DID使用多个尺度来进行训练,使用第一个尺度s=0的恢复曝光作为条件的起点,同时利用前几个尺度恢复的曝光信息来进一步细化高频细节。

训练阶段 Training Stage

DID作者设置了四种不同的scale:,每次随机从中选择一个scale作为crop操作的目标size,来对输入低光照退化图cropping。DID采用了三种不同的condition inputs:

image.png

image.png

推理阶段 Inference Stage

DID采用级联方法来得到最终图像。DID从已知的低光测量值开始,组成条件输入,对其应用反向扩散过程,并将扩散预测用作下一尺度的输入,一直持续到组成最终256×256分辨率的光照充足图像。作者观察到,即使预测是基于相同的条件下曝光实例化,但不同补丁之间的曝光水平和白平衡情况仍热不一致。为了实现完全的尺度一致性,我们需要一个额外的步骤:迭代潜在变量细化(Iterative Latent Variable Refinement,ILVR)。在每个反向去噪的步骤中,DID用来自前一个尺度的低分辨率图像的低频内容替换预测的低频细节。ILVR的引入不需要任何额外的训练,因为它们仅在推理过程中使用。DID作者发现在反向过程的每个步骤中都使用ILVR会导致模糊,而使用18个步骤中的6个扩散去噪步骤使用ILVR可以获得最优性能。

Data Normalization for low-light data

image.png

image.png
image.png
数据分布情况。顶部图:来自LOL训练集中30个随机选择图像的分布。中部图:使用Z-score标准化后的相同图像分布。分布仍然是右偏的。底部图:使用DID中应用的Tail-Normalized技术得到的相同图像的分布。虚线表示具有μ=0和σ=0.5的理想高斯分布。

实验

image.png
作者在NVIDIA Quadro RTX 8000上使用PyTorch实现了我们的框架。作者使用ADAM优化器,学习率为,我们训练批量大小为,共进行次迭代。考虑到使用的是小型数据集,作者发现这个迭代次数足以使模型收敛。通过添加随机高斯模糊或锐化,并缩放亮度和饱和度来增强数据。作者和扩散模型StarDiffusion、DDRM、LDM做了比较,可以看出相比于之前的扩散方法,DID取得了非常不错的性能优势。消融实验可以看出,作者提出的训练策略非常有效,Tail-Normalized Norm的性能提高效果也很不错。

image.png
文本识别准确率和重建质量。左边和中间:展示了在不同亮度和高斯噪声级别下单词准确率和1-NED值的组合。绘制的点是所有测试STR数据集的平均值。随着亮度降低和噪声增加,其他低光重建方法无法恢复足够的细节以进行准确的文本识别,而DiD的表现一直很好。右边:显示了LLFlow和DiD的KID值,证实DiD提供的重建更接近于真实图像的分布。

对下游文字识别任务的增强效果上,DID的表现非常不错,如上图所示,在word准确度和KID上,DID的表现远比LLFlow和LDM等sota方法好得多。

结论 Conclusion

DiD最具创新性的贡献是引入了一种新的低光条件扩散模型重建方法。该方法可以训练多尺度的图像重建,并只需要使用图像块进行训练,从而降低了计算和训练时间。这个方法的创新之处在于在保留下游任务所需细节的同时实现了高效的训练和计算。此外,该论文中还介绍了在处理极暗或右偏数据时,采用归一化技巧进行扩散模型训练,这进一步提高了DiD在低光图像重建方面的性能。

作者: owen
文章来源:GiantPandaCV

推荐阅读

欢迎大家点赞留言,更多Arm技术文章动态请关注极术社区嵌入式AI专栏欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。
推荐阅读
关注数
18662
内容数
1254
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息