超人_bYecSJ · 1 天前 · 广东

【SiRider S1芯擎工业开发板测评】初生牛犊跑个yolov4视觉识别

拿到板子,不仅仅满足于装个软件,跑个linux。
更重要的是发挥板子的终极功能:人工智能。

那么重点来了,先来玩个视觉识别吧,尽管咱说不清道不明视觉识别的原理。
不妨碍咱囫囵吞枣,先跑个yolov4视觉识别的程序,再逐渐摸清门路,从入门到精通是不?

yolo视觉识别原理简图:
4e1afedc981a7c7c535502d016b942a3.jpeg

245610989a8521e8429e64f1b0eda4d0.png

这些理论联系实践的部分咱们一步步来。

先参考瑞莎的YOLOv4 目标检测 Demo跑个例程。

详见:

https://docs.radxa.com/siride...

image.png

1.下载Demo软件:
git clone https://github.com/zifeng-rad...

2.安装依赖
cd siriders1_NPU_yolov4_tiny_demo/demo
pip3 install -r requirements.txt

其实就是安装opencv和numpy

0cf68754da5b9288164bed68c1e5fe2.jpg

opencv_python-4.10.0.84-cp37-abi3-manylinux_2_17_aarch64.manylinux2014_aarch64.whl (41.7 MB)

numpy-1.24.4-cp38-cp38-manylinux_2_17_aarch64.manylinux2014_aarch64.whl (14.0 MB)

这步下载速度极慢
948c2af5faaa57d9c60b401e855878e.png

3.运行 yolov4 demo 程序
python3 yolov4_aipu.py -m camera -r

(aiot-focal_overlayfs)root@MiWiFi-CR8806-srv:~/siriders1_NPU_yolov4_tiny_demo/dem
mo# python3 yolov4_aipu.py -m camera -r
argv: ['yolov4_aipu.py', '-m', 'camera', '-r']
[ WARN:0@0.029] global cap_v4l.cpp:999 open VIDEOIO(V4L2:/dev/video0): can't open camera by index
[ERROR:0@0.099] global obsensor_uvc_stream_channel.cpp:158 getStreamChannelGroup Camera index out of range
**成功打开摄像头 1
person 93.63%**
qt.qpa.xcb: could not connect to display
qt.qpa.plugin: Could not load the Qt platform plugin "xcb" in "/usr/local/lib/python3.8/dist-packages/cv2/qt/plugins" even though it was found.
This application failed to start because no Qt platform plugin could be initialized. Reinstalling the application may fix this problem.

Available platform plugins are: xcb.

Aborted (core dumped)

这步报错了。显示 Could not load the Qt platform plugin "xcb"

参考网上的办法安装libxcb,然而还是问题依旧:
53f980f74aee4b314e17bc32f234fa1.png

但看起来也是成功识别了。

换一个参数,-s保存输出
python3 yolov4_aipu.py -m camera -s

可以看到连续的识别,识别率怎么说呢,勉强能用。
5189abc7de85c43b9f44ca062c3a6ad.png
0e87c39f4ac98ba4a826d6418b9d4b4.png

我们再研究下目录:siriders1_NPU_yolov4_tiny_demo/

e45b73cfbc296c32dec09af4fb8aef3.jpg

10aeaf5376a4f4a7530297376788649.jpg
这里有视觉识别,投喂的图片
07ac4c0f1041746f64a161c573ce88f.jpg

在进行连续视觉识别时,CPU的负荷一下子就上去了。
1eb98e78aebb420be7afc7db138f260.jpg

上述Demo仅仅是跑了一个写好的程序,如果要从头编译。
要使用周易 Z2 部署目标模型,需要分三步走,模型转换,编译推理文件,应用层程序设计。

后续再慢慢摸索吧,本次分享就到这里。

推荐阅读
关注数
0
文章数
3
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息