AI学习者 · 2020年09月27日

详解ENet | CPU可以实时的道路分割网络

来源:OpenCV学堂
作者:gloomyfish

前言

OpenCV DNN模块支持的图像语义分割网络FCN是基于VGG16作为基础网络,运行速度很慢,无法做到实时语义分割。2016年提出的ENet实时语义分割网络基于编码与解码的网络语义分割方式,类似UNet网络,通过构建自定义Block块,在Cityscapes, CamVid, SUN数据集上实现了性能与实时双提高。

640.png

ENet网络结构

作者从ResNet网络结构设计中收到启发,定义两个新的Block结构,如下:
640-1.png

其中a是初始Block,非重叠2x2最大池化,左侧卷积步长为2,然后13个filters之连接合并,该结构注意是收到了Inception改进模型的启发。B是ENet的bottleneck模块,其中卷积可能是正常卷积、空洞卷积、反卷积,使用3x3或者5x5的filters,最终合并在一起是按空间位置相加。两个1x1的卷积分别用来降低维度与扩展,使用BN/Dropout正则化,PReLU非线性激活。最终的ENet网络模型结构如下:

640-2.png

其中stage2跟stage3结构相同,stage4跟stage5属于解码部分。

设计考量

常见的深度学习语义分割模型在下采样操作上的两个缺点:一是降低Feature Map的分辨率会导致图像空间信息损失,特别是图像边缘信息,这个对语义分割精度有明显影响;二是像素级别的语义分割网络要求输入跟输出的分辨率保持一致,这个就要求强的下采样跟强的上采样必须对称,这个增加了模型的计算与参数量。其中第一个问题在FCN与SegNet网络中通过在编码阶段叠加Feature Map与在解码阶段通过稀疏上采样来抑制,但是强的下采样依然对整个语义分割精度有伤害,要在设计时候适当的加以限制。

但是下采样同样可以帮助获得较大的感受野,区分不同的类别,作者发现空洞卷积在这个方面特别有帮助,ENet为了获得实时性能,采用了早期下采样策略来降低计算SegNet跟UNet都是对称的网络结构,ENet采用大的编码网络,小的解码网络实现的不对称结构,编码网络实现分类任务,解码网络主要是优化细节,更好的输出结果。

此外作者在设计过程中还考虑了非线性激活、空洞卷积、正则化方式的影响。

数据对比实验

最终模型与SegNet的对比实验结果如下:

速度性能

640-3.png

参数总量与模型大小

640-4.png

精度对比

640-5.png

OpenCV DNN使用ENet道路分割

OpenCV DNN模块从OpenCV4.0版本开始支持ENet网络模型加载与解析,其中的道路分割模型可以从下面的地址下载:

https://github.com/e-lab/ENet-training

在OpenCV DNN使用该模型时转换Blob输入相关参数信息如下:

  • mean: [0, 0, 0]
  • scale: 0.00392
  • width: 512
  • height: 256
  • rgb: true
  • classes: "enet-classes.txt"

其中分类文件enet-classes.txt可以从OpenCV的sample/data/dnn中发现。输出的数据格式为:Nx20xHxW,其中N=1表示每次输入的一张图像,20是基于Cityscapes数据集训练的20个类别标签,H跟W是输入时图像分辨率(512x256)。

最初版本代码实现

 该代码实现是来自C++版本的翻译,完整的演示代码如下:

# load CNN modelbin_model = "D:/projects/models/enet/model-best.net";net = cv.dnn.readNetFromTorch(bin_model)# read input dataframe = cv.imread("D:/images/software.jpg");blob = cv.dnn.blobFromImage(frame, 0.00392, (512, 256), (0, 0, 0), True, False);cv.imshow("input", frame)# Run a modelnet.setInput(blob)score = net.forward()# Put efficiency information.t, _ = net.getPerfProfile()label = 'Inference time: %.2f ms' % (t * 1000.0 / cv.getTickFrequency())print(score.shape)# generate color tablecolor_lut = []n, con, h, w = score.shapefor i in range(con):    b = np.random.randint(0, 256)    g = np.random.randint(0, 256)    r = np.random.randint(0, 256)    color_lut.append((b, g, r))maxCl = np.zeros((h, w), dtype=np.int32);maxVal = np.zeros((h, w), dtype=np.float32);# find max score for 20 channels on pixel-wisefor i in range(con):    for row in range(h):        for col in range(w):            t = maxVal[row, col]            s = score[0, i, row, col]            if s > t:                maxVal[row, col] = s                maxCl[row, col] = i# colorful the segmentation imagesegm = np.zeros((h, w, 3), dtype=np.uint8)for row in range(h):    for col in range(w):        index = maxCl[row, col]        segm[row, col] = color_lut[index]h, w = frame.shape[:2]segm = cv.resize(segm, (w, h), None, 0, 0, cv.INTER_NEAREST)print(segm.shape, frame.shape)frame = cv.addWeighted(frame, 0.2, segm, 0.8, 0.0)cv.putText(frame, label, (0, 15), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0))cv.imshow("ENet-Demo", frame)cv.imwrite("D:/result.png", frame)cv.waitKey(0)cv.destroyAllWindows()

总的来说比较啰嗦!

640-6.png

修改后代码熟实现

上面是我在2019年3月份时候在 OpenCV研习社 的代码分享,当时主要是把C++代码直接翻译过来,并没有太多考虑,今天又重新看了一下感觉自己写了点垃圾代码,所以重新整理了一下,把输出解析的部分基于Numpy跟OpenCV-Python函数做了简化,最终得到的代码如下:

 1# load CNN model 2bin_model = "D:/projects/models/enet/model-best.net"; 3net = cv.dnn.readNetFromTorch(bin_model) 4# read input data 5frame = cv.imread("D:/images/spacecity.png"); 6blob = cv.dnn.blobFromImage(frame, 0.00392, (512, 256), (0, 0, 0), True, False); 7cv.imshow("input", frame) 8h, w, c = frame.shape 910# Run a model11net.setInput(blob)12score = net.forward()13# Put efficiency information.14t, _ = net.getPerfProfile()15label = 'Inference time: %.2f ms' % (t * 1000.0 / cv.getTickFrequency())16score = np.squeeze(score)17score = score.transpose((1, 2, 0))18score = np.argmax(score, 2)19mask = np.uint8(score)20mask = cv.cvtColor(mask, cv.COLOR_GRAY2BGR)21cv.normalize(mask, mask, 0, 255, cv.NORM_MINMAX)22cmask = cv.applyColorMap(mask, cv.COLORMAP_JET)23cmask = cv.resize(cmask, (w, h))24dst = cv.addWeighted(frame, 0.7, cmask, 0.3, 0)25cv.putText(dst, label, (50, 50), cv.FONT_HERSHEY_SIMPLEX, 0.75, (0, 0, 255), 2)26cv.imshow("dst", dst)27cv.waitKey(0)

运行结果如下:

640-7.png

总的执行时间也大大减少,主要去除了一些无谓的循环解析输出数据部分。CPU上10+FPS 应该没问题!实时get!

推荐专栏文章

更多嵌入式AI算法部署等请关注极术嵌入式AI专栏
推荐阅读
关注数
18810
内容数
1352
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息