阿里云视频云 · 2023年03月24日 · 浙江

窄带高清画质增强之生成式细节修复

窄带高清画质增强之生成式细节修复

作者:兮墨

阿里云窄带高清本质上是一种转码质量优化技术,是一套以人眼的主观感受最优为基准的视频编码技术,研究的是在带宽受限的情况下,如何追求最佳的视觉感受,即人眼感受的主观质量最优。而画面质量提升则是通过使用恰当的画质增强技术以达到。

我们先来看两个窄带高清画质增强技术提升源视频画质的客户案例:百视 TV APP NBA 直播转码画质增强以及江苏移动 FIFA2022 世界杯直播转码画质增强。

https://v.youku.com/v\_show/id\_XNTk1MjUxNzg4OA==.html

右侧为窄带高清画质增强输出 

视频仅限于演示技术方案效果

https://v.youku.com/v\_show/id\_XNTk1MDY4NjUzMg==.html

右侧为窄带高清画质增强输出

视频仅限于演示技术方案效果

 

01 视频高清化已成大趋势

视频是信息呈现和传播的主要载体。从早期的 625 线模拟电视信号,到后来的 VCD、DVD、蓝光、超大尺寸电视等,用户对高品质画面无止境的追求推动着视频技术的不断进步和产业的蓬勃发展。据预测,未来个人消费者网络流量的 80%以上和行业应用流量的 70%以上都将是视频数据。

当下,随着视频拍摄和视频播放显示设备的软/硬件配置和性能不断升级,消费者对于视频画质的要求越来越高:从 360p 到 720p 再到 1080p,现在正全面跃升至 4K,并且 8K 的脚步正在逼近。在视频娱乐场景中,视频画质是影响用户互动体验的关键因素,高清视频往往比低清视频包含更多的细节和信息,给用户的视频互动带来更好的体验,这也促进了用户在视频娱乐中对视频画质的要求越来越高。视频消费者一旦适应了高清视频所带来和以往不一样的感受和体验,例如:高清视频可以将光线、质感、人物皮肤、纹理等细节还原得更为真实,对于“渣”画质的容忍度就会越来越低。

作为创新的排头兵,互联网视频网站正拿出各种应对手段满足消费者的需求,提升画质俨然成为视频网站争取 IP 之外的新战场。当下,国内外主流的视频网站/APP 已经全面普及 1080p,1080p 已经成为一种标配;一些视频平台,例如爱优腾、B 站、YouTube,部分节目内容也提供了 4K 版本。

02 窄带高清云转码助力“最后一公里”的画质优化

视频从采集到最终分发再到终端消费者进行播放观看,中间要经历复杂的视频处理和传输链路。完整的处理和传输链路通常包括以下几个环节:

采集/编码:内容提供方采集的视频首先会被编码为特定的格式;

编辑/剪辑/重编码:对原始素材进行多样化的编辑/剪辑操作,进行二次创作,然后重编码输出;有的业务场景可能会包含多次剪辑处理;剪辑/编码完成的视频会被上传至服务端;

云服务端转码:视频在上传到云服务器后,为适应不同的网络环境和播放终端通常会在云端进行转码(本文所讨论的窄带高清转码即发生在该环节,以更高的压缩比呈现更高质量的视频);

云发布:CDN 内容分发网络

播放端:视频经由内容分发网络(CDN)加速分发,通过解码最终在内容消费方的终端设备上实现播放。

多平台播放:手机,Pad,OTT,IPTV,Web

图 1 视频处理和传输链路

从视频处理角度来看,窄带高清云转码是视频内容触达终端消费者的最后一个处理环节;从客观现实上来说,是视频内容生产消费全链路的“最后一公里”。

从传输角度来看,在视频生产和消费全链路,各环节之间数据的流转有多种形式:SDI 有线线缆方式、无线蜂窝移动通信、互联网以及卫星通信等。不同数据传输方案在传输环境稳定性和带宽存在巨大的差异,因此,为了能在带宽受限的链路上进行稳定的视频传输,必然要对视频信号进行深度编码压缩,而编码压缩势必会带来不同程度的画质损伤。

举个例子:常见的视频流规格:1080p, 60 fps, YUV 4:2:0, 8-bit,raw data 码率为 1920*1080*1.5*8*60 = 1.49Gbps

上述提到的传输方式中,只有 3G-SDI 有线线缆可支撑该码流的实时传输。而视频内容触达终端消费者的方式一般是经由互联网进行分发,码率需要控制在 10Mbps 以下,因此意味要将原始视频压缩上百倍。

综上所述,从整个视频处理和传输链路来看,视频内容从采集到终端播放,要经历多个视频编辑、处理、重编码的操作。而每一次处理/编码操作或多或少都会对视频的画质产生影响,通常会损伤画质。因此,当下即便是使用最新的视频采集设备(可以输出高画质的原始视频信号),终端消费者侧也不一定保证能体验到高画质,原因就在于中间处理环节的画质损耗。

窄带高清云转码作为整个视频处理链路的最后一个处理环节,其输出码流画质效果即为最终分发至终端消费者的画质效果。因此,如果在该环节使用恰当的画质增强技术,可以一定程度上弥补前序视频处理环节所产生的画质损伤,起到优化画质的作用。

03 窄带高清画质增强应该优先解决什么问题?

视频画质增强技术大致可以分为三大类:

色彩/亮度/对比度维度增强:色彩增强(色域,位深,HDR 高动态范围)、去雾、低光照/暗光增强等;

时域维度帧率增强:视频帧率变换/智能插帧;

空域维度细节复原/增强:去压缩失真、分辨率倍增、降噪/去划痕/去亮斑、去闪烁、去模糊、去抖等。

视频增强技术在产品落地层面,目前比较热门的选择是做老旧视频素材的高清化,例如年代比较久远的电影、电视剧、动画片和 MV/演唱会视频等。老旧影视素材普遍存在:划痕、噪点/霉斑、闪烁、细节模糊、运动拖尾、色彩暗淡或者只有黑白等问题,可以通过去噪、去脏点/划痕/霉斑、去模糊、去闪烁、分辨率/帧率倍增以及色彩增强(黑白上色)等处理,这样可以全面提升素材的整体观感。

然而,由于每个老旧素材所面临的画质问题差异很大,且目前的技术水平对于有的画质问题还难以给出令人满意的效果,因此老旧素材高清化处理过程必须引入人工干预。

人工干预体现在两个方面:一是对老旧素材画质问题进行诊断,并配置恰当的处理模型和处理流程;二则是对模型处理结果进行人工审查,并做适当的精修和微调。

窄带高清画质增强技术落地选择原则

窄带高清云转码作为一种全自动,无人工干预的视频转码作业,所采用的视频画质增强优化技术也需要做到全自动,无需人工参与。我们认为在选择产品化方向时,所集成的视频增强技术应该满足以下几个条件:

视频增强技术可以实现全自动,无需人工干预:老旧素材高清化目前还需要太多的人工干预,不符合该原则;

相关技术具有广泛的适用范围:低光照/暗光增强和视频去抖在部分场景也有需求,但在视频转码场景,有这类画质问题的视频占比非常少;

持续的刚需:该技术可带来消费者可感知的画质提升,且其解决的问题在未来 5-10 年都会持续存在,因此可以形成持续的刚需。

窄带高清画质增强:解决生产链路引入的画质损失

根据上述原则,我们最终选择在窄带高清转码中集成的画质增强技术为:空间维度细节修复,解决视频生产链路产生的画质损失,即多次编码压缩导致的画质损失。

从整个视频处理和传输链路来看,我们再具体分析一下产生画质损失的环节有哪些:

1.信号源本身的画质问题

传输链路导致的低码率:在视频生产流程中,传输链路的带宽通常有一定的限制,为了优先保证流畅,不得不采用低码率。典型场景有:跨国境直播流;大型赛事活动现场信号远距离传输,无专线保障;以及无人机航拍实时信号。典型的码率设置例如 1080p 50fps 4-6M,直播场景通常是硬件编码,输出的码流有明显的编码压缩损失;

内容版权/商业模式导致的低码率:由于视频版权或者商业模式问题,视频版权方给到分发渠道只有低码率信号源;

原始视频素材经历过多次编码压缩,已经有明显的画质损失问题。

图 2 低码率信号源画质问题:有明显的编码块效应

2.编辑/剪辑及二次创作引入的画质问题

剪辑软件编码压缩引入的画质问题。

在 UGC 短视频领域,大家通常习惯使用手机剪辑 APP 来进行视频剪辑,剪辑 APP 会调用手机硬件编码来做完成渲染视频的编码输出;但手机的视频编码能力比较受限,且不同型号手机的编码压缩性能差异很大,因此很容易出现编码压缩后画质不好的情况,即便输出码率高达 20M@1080p,如下图;

推流工具重编码压缩引入的画质问题。

在一些业务场景,例如网红博主陪你看球,演播室或者解说主播会将原始信号流通过 OBS 拉流到本地,叠加解说,再推流上云;OBS 的重编码会再次损伤原始视频的画质。

图 3 UGC 短视频,剪辑软件输出视频:

码率 20M,分辨率 1920x1080,画面存在明显编码块效应和模糊

图 4 主播解说,OBS 推流:

码率 6M,分辨率 1920x1080,画面存在大量编码压缩导致的边缘锯齿/毛刺,以及模糊

从需求持续时间来看,由于传输带宽的限制,在整个视频生成流程中,视频编码压缩是一个无法避免的处理操作,而有压缩就不可避免引入画质损伤,因此,面向编码压缩损失的画质提升会是一种持续性的需求。

04 面向编码压缩损失的画质增强技术

从学术的角度来看,解决生产链路引入的画质损失,主要研究的技术包括:去压缩失真以及超分辨率重建。去压缩失真主要解决编码压缩导致的块效应,例如边缘毛刺和细节丢失/模糊问题;超分辨率重建可以消除处理链路中可能引入的空间分辨率降采样,并提升画面整体锐度和清晰度。

学术界对图像超分辨率重建技术的研究已经持续了几十年。早期的方法大多基于空域/时域重构技术,后来发展到基于样例的学习方法,比较有代表性的方案有:(1)基于图像自相似性的方法;(2)基于领域嵌入的方法;(3)基于字典学习/稀疏表示的方法;(4)基于随机森林等。但直到基于卷积神经网络(CNN)的超分辨率技术兴起,才让该项技术在处理效果和性能方面达到可商用的水平,从而在工业界得到广泛关注和应用。

第一个将基于 CNN 的图像/视频超分辨率技术进行产品化落地尝试的当属一家叫 Magic Pony 的创业公司。该公司在 CVPR 2016 上做了一个当时非常炫酷的 demo - Real-Time Image and Video Super-Resolution on Mobile, Desktop and in the Browser[1, 3]。第一次将基于 CNN 的视频超分辨率技术移植到了移动平台(三星手机和 iPad),可以对游戏直播画面进行实时的超分辨率增强处理,显著提升源流的画质。该项技术很快引起了 Twitter 的关注,并在很短的时间内就完成了对该公司的收购 [2]。

尔后,随着第一届 NTIRE 超分辨率比赛 - NTIRE 2017 Challenge on Single Image Super-Resolution [4]的举办,越来越多的公司开始关注基于 CNN 的图像超分辨率技术,从那之后,这方面的落地应用也如雨后春笋般地涌现。

l  常规 CNN 去压缩失真处理:这个人脸有点假

虽然基于 CNN 的图像超分辨率技术可取得远超过往技术的处理效果,但其产品化过程还是存在不少问题。一个典型的问题是:基于 MSE/SSIM 损失函数训练得到 CNN 超分辨率模型(也即常规 CNN 超分辨率模型),重建生成的图像往往会缺少高频细节信息,从而显得过平滑,主观感受不佳。

下面三个例子为一个典型的常规 CNN 超分辨率模型达到的处理效果:

常规 CNN 超分辨率模型对编码压缩造成的块效应、边缘锯齿、毛刺等 artifacts 有比较好的平滑作用,从而使得整个画面看起来更加干净,但画面缺少细节和质感,主要体现在人脸区域,有比较明显磨皮效应。因此,在对画面细节有要求的业务场景,例如 PGC 内容生产,用户通常会抱怨:人脸磨皮太明显,有点假。

图 5 常规 CNN 模型处理效果示范:

处理之后编码 artifacts 被有效去除,画面比较干净平滑,

但缺少细节和质感,例如人像区域的头发/眉毛/胡子/皮肤颗粒感/嘴唇纹理等细节;

地面草地纹理细节以及晚会节目视频中演员服装、道具细节丢失

l  基于 GAN 的处理方案

为了解决常规 CNN 超分辨率模型缺乏细节、过平滑的问题,学术界在 2017 年提出了基于生成对抗网络(GAN)的超分辨率方案:超分辨率生成对抗网络(SRGAN)[5]。SRGAN 在模型训练过程中,额外使用判别器对模型输出结果的纹理真实性进行鉴别,从而使得模型倾向输出具有一定细节纹理的结果。

如下图所示,基于 MSE 的模型倾向输出平滑的结果,而基于 GAN 的模型倾向输出有一定纹理细节的结果。

图 6 基于 GAN 的 SR 方案

图来源:论文 Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

基于 GAN 的超分辨率模型具有“无中生有”生成细节的能力,因此可以补充原始画面缺失的纹理细节,这对解决常规 CNN 模型过平滑问题有很大的帮助。在 SRGAN 模型之后,学术界有不少工作对这一技术方向进行不断的完善[6, 7]。

05 窄带高清 GAN 细节生成技术:时域稳定的细节生成能力

然而,想要在实际业务场景中用好 GAN 生成技术,尤其是要在窄带高清全自动转码作业中应用该能力,技术实现层面还是有不少难点。由于 GAN 的纹理细节是通过大量数据训练之后“脑补”出来的,那么“脑补”生成出来的细节纹理是否自然、与原始画面有没有违和感、相邻帧的生成结果是否具有一致性等,对该项技术能否在实际视频业务中成功应用至关重要。

具体来讲,要在窄带高清全自动转码作业中使用 GAN 生成能力,需要解决以下几个问题才能满足商用要求:

l  模型“脑补”生成的纹理自然,与原始画面没有违和感;

l  视频相邻帧的生成效果一致性高,连续播放无时域闪烁现象;

l  可应用于自动化处理流:模型对片源质量有良好的自适应能力,对不同画质损失程度不同的片源均有收益;

l  模型可适用于不同视频类型场景,例如影视剧,综艺,赛事,动画片等;

l  模型处理流程简单,处理耗时可预测、可控制(直播场景对处理效率有比较高的要求)。

阿里云视频云音视频算法团队经过对 GAN 生成技术持续的钻研,积累了多项 GAN 模型优化技术,解决了上述 GAN 细节生成能力商用落地的难点问题,打造了一个可应用于全自动转码作业的 GAN 细节生成方案。该方案的核心优势是:时域稳定的细节生成能力。

图 7 阿里云窄带高清 GAN 细节生成技术

具体来讲,在窄带高清 GAN 细节生成模型的训练过程中,我们使用了以下优化技术:

1.建立类型丰富、清晰度高、细节丰富的高画质视频库作为模型训练的高清样本,训练样本包含多样的纹理特征对 GAN 生成纹理的真实感有很大的帮助;

2.通过精细化建模不断优化训练数据的制备过程:基于对业务场景所面临的画质问题的深入洞察,贴合业务场景不断优化训练样本建模方法,不断探索以达到精细化建模;

3.探索积累有效的模型训练策略:

损失函数:训练损失函数配置调优,例如 perceptual loss 使用不同 layer 的 feature,会影响生成纹理的颗粒度,不同 loss 的权重配比,也会影响纹理生成的效果;

训练方式:我们在模型训练过程使用了一种叫 NoGAN 的训练策略 [8]。在图像/视频上色 GAN 模型训练中,NoGAN 训练策略被证实是一种非常有效的训练技巧:一方面可以提升模型的处理效果,另外一方面对模型生成效果的稳定性也有帮助。

4.模型对片源质量的自适应能力决定了其是否可应用于自动化处理作业。为了提高模型对片源质量的自适应能力,我们在训练输入样本质量的多样性和训练流程方面做了很多工作。最终我们训练得到的 GAN 模型具有良好的片源质量自适应能力:对中低质量视频源具有明显的细节生成增强能力、对高质量片源有适中的增强效果;

5.打造多场景处理能力:根据学术界的经验,处理目标先验信息越明确,GAN 的生成能力越强。例如将 GAN 技术用于人脸或者文字修复,由于其处理对象单一(高维空间中的一个低维流形),可以得到非常惊艳的修复效果;

因此,为了提升 GAN 对不同场景的处理效果,我们采用了一种「1+N」的处理模式:「1」为打造一个适用于通用场景的 GAN 生成模型,具有比较温和的生成能力;「N」为多个垂直细分场景,针对垂直细分场景,在通用场景模型基础之上,对该场景特有的纹理细节进行比较激进的生成,例如:对于足球赛事场景,模型对赛场草地纹理有更强的生成效果;对于动画片场景,模型对线条有更强的生成能力;对于综艺节目,舞台表演场景,模型对人像特写细节有更强的生成能力。特别注意:如下所述,对于特定目标的生成效果提升,我们并没有采用特定目标单独处理的方案;

6.计算复杂度可控可预测的处理模式:直播场景对处理模型的运行效率有很高的要求。为了适配直播画质增强的需求,当下,我们采用了单个模型处理模式,即:对全幅图像,统一使用单个模型进行处理。即便要对某些特定目标的生成效果进行针对性提升,例如人像区域及足球场地草地纹理,我们并没有采用将目标抠出来,单独处理的方案。因此,我们的模型推理时间是可预测的,与图像内容无关。经过模型蒸馏、轻量化,基于阿里云神龙 HRT GPU 推理框架,我们的 GAN 细节生成模型在单卡 NVIDIA Tesla V100 上,处理效率可达 60fps@1920x1080。

GAN 生成时域稳定性保障技术

为了保证 GAN 模型生成效果的帧间一致性,以避免帧间不连续带来视觉上的闪烁,我们通过与高校合作的方式,提出一种即插即用的帧间一致性增强模型 - Temporal Consistency Refinement Network (TCRNet)。TCRNet 的工作流程主要包含以下三个步骤:

l  对单帧 GAN 处理结果进行后处理,达到增强 GAN 处理结果的帧间一致性的同时,增强部分细节,改善视觉效果;

l  使用偏移迭代修正模块(Iterative Residual Refinement of Offset Module,IRRO)结合可变形卷积,提高帧间运动补偿精度;

l  使用 ConvLSTM 模块,使模型能够融合更长距离的时序信息。并通过可变形卷积对传递的时序信息进行空间运动补偿,防止由于偏移造成的信息融合误差。

图 8 TCRNet 算法流程,来源:论文 Deep Plug-and-Play Video Super-Resolution

图 9 偏移迭代修正模块(IRRO)算法流程

来源:论文 Deep Plug-and-Play Video Super-Resolution

 

窄带高清 GAN 细节生成:这个人脸效果还假吗?

回到前面提及的几个常规 CNN 处理效果例子,我们再来看看使用窄带高清 GAN 细节生成处理会有怎样不一样的结果。对于这些例子,我们使用通用场景模型进行处理。

图例:从左至右分别为:窄带高清 GAN 处理、输入原始帧、常规 CNN 处理效果

图 10 人脸皮肤上有了颗粒感,有一种皮肤质感;头发,眉毛有了发丝的感觉;嘴唇纹理更丰富

图 11 头发,胡子的细节更丰富,人脸不会有磨皮感

图 12 地面/草地纹理更丰富,细节更清晰

图例:从上至下分别为:窄带高清 GAN 处理、输入原始帧、常规 CNN 处理效果

图 13 左侧演员裙子纹理更丰富;右侧演员道具纹理更丰富,细节更清晰

图例仅限于演示技术方案效果,从左至右分别为:窄带高清 GAN 处理、输入原始帧

图 14 头发,胡子区域有明显的细节生成,纹理更丰富

在前面我们提到,针对垂直细分场景,模型会对该场景特有的目标进行较为激进的纹理生成。例如对于足球赛事场景,模型对场地的草地纹理有更强的生成能力。下图是两个示例:

图例:从左至右分别为:窄带高清 GAN 处理、输入原始帧

图 15 足球赛事场景,草地纹理生成效果

此外,对于动画片场景,我们也训练了一个针对性的 GAN 模型,聚焦在线条生成能力。下面为三个动画片的处理效果。

图例:从左至右分别为:窄带高清 GAN 处理、输入原始帧

图 16 动画片处理效果

窄带高清 GAN 细节生成技术商用

目前,窄带高清 GAN 细节生成能力已在百视 TV NBA 直播转码中全面启用。当您用百视 TV APP 观看 NBA 比赛,选择“蓝光 265”档位,就可以体验基于窄带高清 GAN 细节生成能力转码输出的画质。同时,百视 TV 在一些综艺节目和大型活动的直播中也使用了该功能。

此外,在 FIFA2022 世界杯转播中,江苏移动使用窄带高清 GAN 细节生成技术提升咪咕视频原始机顶盒分发流的画质。在为期一个月的赛事转播期间,窄带高清为江苏移动全天 24 小时不间断直播提供画质增强能力。

除了百视 TV 和江苏移动,目前还有多个客户在试用窄带高清 GAN 细节生成能力,POC 测试的效果得到了客户的高度认可。

客户场景画质增强效果示范:

 
https://www.bilibili.com/video/BV1jh41137oA/?vd_source=0ffef0efc167fb620e266ccee35b5005

左侧 百视 TV APP 直播推流信号源;右侧:窄带高清画质增强输出

https://www.bilibili.com/video/BV1Th411371G/?vd_source=0ffef0efc167fb620e266ccee35b5005

左侧 江苏移动直播推流信号源(咪咕 8M);右侧:窄带高清画质增强输出

 

高分辨率、纹理丰富、细节清晰的视频能提供更清晰的画面和更高阶的感官体验,对于提升视频质量和用户视觉感受有很大的帮助。窄带高清 GAN 细节生成修复技术将持续在该领域不断探索,不断精进,打造极致的细节恢复和增强效果,为视频消费者提供优质的视频观看体验。

未来,窄带高清 GAN 细节生成能力将持续进行算法性能优化,提升细节生成和修复效果,同时不断降低处理成本。

更好!提升细节生成和修复效果;除了现在采用的 GAN 方案,基于扩散模型的细节生成技术也将是我们后续研究的重点方向;

更广!打造更多垂直细分场景,采用激进的生成策略提升相应场景的细节恢复效果;

更普惠!通过模型轻量化,以及优化部署方案,持续降低处理成本,以普惠的价格服务更多的客户。

【本文所涉及的视频、图片为实际案例,仅用于技术分享及效果展示】

附:参考文献

[1] https://cvpr2016.thecvf.com/program/demos

[2] https://www.gov.uk/government/news/magic-pony-technology-twitter-buys-start-up-for-150-million

[3] Wenzhe Shi et al., Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network, CVPR 2016

[4] NTIRE 2017 Challenge on Single Image Super-Resolution: Dataset and Study, CVPRW 2017

[5] Christian Ledig et al., Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network, CVPR 2017

[6] Kai Zhang et al., Designing a Practical Degradation Model for Deep Blind Image Super-Resolution, ICCV 2021

[7] Xintao Wang et al., Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure Synthetic Data, ICCVW 2021

[8] https://www.fast.ai/posts/2019-05-03-decrappify.html#nogan-training

[9] Hannan Lu et al., Deep Plug-and-Play Video Super-Resolution, ECCVW 2020

致谢

特别感谢以下同学对本文所涉及的算法做出的贡献。@刘佳慧(佳芙) @吕峥瑶(相泉) @李岁缠(岁曦) @王伟(静瑶) @邵纬航(生辉) @周明才(明烁)

推荐阅读
关注数
7681
内容数
230
分享视频云行业和技术趋势,打造“新内容”、“新交互”。
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息