小凡 · 2020年11月11日

保姆教程 | YOLOv5在建筑工地中安全帽佩戴检测的应用

转载自:3D视觉工坊
编辑:AI深度学习视线

教程来自:https://github.com/PeterH0323/Smart\_Construction

一、YOLO v5训练自己数据集教程 

  • 1.1 创建自己的数据集配置文件 
  • 1.2 创建每个图片对应的标签文件 
  • 1.3 文件放置规范 
  • 1.4 聚类得出先验框(可选) 
  • 1.5 选择一个你需要的模型 
  • 1.6 开始训练 
  • 1.7 看训练之后的结果 

二、侦测 
三、检测危险区域内是否有人 

  • 3.1 危险区域标注方式 
  • 3.2 执行侦测 
  • 3.3 效果:在危险区域里面的人体会被 红色框 选出来 

四、生成 ONNX 
五、增加数据集的分类
该项目是使用 YOLOv5 v2.x 来训练在智能工地安全领域中头盔目标检测的应用,先来一波演示!

image.png

指标

yolov5s 为基础训练,epoch = 50

image.png
对应的权重文件https://pan.baidu.com/share/i...\_5A,提取码: b981


yolov5m 为基础训练,epoch = 100

image.png
对应的权重文件https://pan.baidu.com/share/i...\_vHnPHwEA,提取码: psst


yolov5l 为基础训练,epoch = 100

image.png

对应的权重文件https://pan.baidu.com/share/i...,提取码: a66e


1

YOLOv5训练自己数据集教程

使用的数据集:Safety-Helmet-Wearing-Dataset ,感谢这位大神的开源数据集!

https://github.com/njvisionpo...

本文结合 YOLOv5官方教程 来写

环境准备

首先确保自己的环境:

Python >= 3.7

训练自己的数据

提示:

关于增加数据集分类的方法,请看【5. 增加数据集的分类】


1.1 创建自己的数据集配置文件

因为我这里只是判断 【人没有带安全帽】、【人有带安全帽】、【人体】 3个类别 ,基于 data/coco128.yaml 文件,创建自己的数据集配置文件 custom_data.yaml

# 训练集和验证集的 labels 和 image 文件的位置

1.2 创建每个图片对应的标签文件

使用标注工具类似于 Labelbox 、CVAT 、精灵标注助手 标注之后,需要生成每个图片对应的 .txt 文件,其规范如下:

  • 每一行都是一个目标
  • 类别序号是零索引开始的(从0开始)
  • 每一行的坐标 class x_center y_center width height 格式
  • 框坐标必须采用归一化的 xywh格式(从0到1)。如果您的框以像素为单位,则将x_centerwidth除以图像宽度,将y_centerheight除以图像高度。代码如下:
import numpy as np

生成的 .txt 文件放置的名字是图片的名字,放置在 label 文件夹中,例如:

./score/images/train/00001.jpg  # image

生成的 .txt 例子

1 0.1830000086920336 0.1396396430209279 0.13400000636465847 0.15915916301310062

1.3 文件放置规范

文件树如下

image.png

1.4 聚类得出先验框(Yolov5 内部已做适配,可选)

使用代码 ./data/gen_anchors/clauculate_anchors.py ,修改数据集的路径

FILE_ROOT = r"xxx" # 根路径

跑完会生成一个文件 anchors.txt,里面有得出的建议先验框:

Best Accuracy = 79.72%

1.5 选择一个您需要的模型

在文件夹 ./models 下选择一个你需要的模型然后复制一份出来,将文件开头的 nc = 修改为数据集的分类数,下面是借鉴 ./models/yolov5s.yaml来修改的

# parameters

1.6 开始训练

这里选择了 yolov5s 模型进行训练,权重也是基于 yolov5s.pt 来训练

python train.py --img 640 --batch 16 --epochs 10 --data ./data/custom_data.yaml --cfg ./models/custom_yolov5.yaml --weights ./weights/yolov5s.pt

其中,yolov5s.pt 需要自行下载放在本工程的根目录即可,下载地址 官方权重

1.7 看训练之后的结果

训练之后,权重会保存在 ./runs 文件夹里面的每个 exp 文件里面的 weights/best.py ,里面还可以看到训练的效果

image.png

2

推断
侦测图片会保存在 ./inferenct/output/ 文件夹下
运行命令:

python detect.py --source   0  # webcam

例如使用我的 s 权重检测图片,可以运行以下命令,侦测图片会保存在 ./inferenct/output/ 文件夹下

python detect.py --source 图片路径 --weights ./weights/helmet_head_person_s.pt

3

检测危险区域内是否有人

3.1 危险区域标注方式

我这里使用的是 精灵标注助手 标注,生成了对应图片的 json 文件

3.2 执行侦测

侦测图片会保存在 ./inferenct/output/ 文件夹下
运行命令:

python area_detect.py --source ./area_dangerous --weights ./weights/helmet_head_person_s.pt

3.3 效果:在危险区域里面的人体会被 红色框 选出来

image.png

生成 ONNX

4.1 安装 onnx

pip install onnx

  4.2 执行生成

python ./models/export.py --weights ./weights/helmet_head_person_s.pt --img 640 --batch 1

onnxtorchscript 文件会生成在 ./weights 文件夹中

增加数据集的分类

关于增加数据集分类的方法:
SHWD 数据集里面没有 person 的类别,先将现有的自己的数据集执行脚本生成yolov5需要的标签文件.txt,之后再用yolov5x.pt 加上 yolov5x.yaml ,使用指令检测出人体

python detect.py --save-txt --source ./自己数据集的文件目录 --weights ./weights/yolov5x.pt
yolov5

修改 ./data/gen_data/merge_data.py 中的自己数据集标签所在的路径,执行这个python脚本,会进行 person 类型的合并
本文仅做学术分享,如有侵权,请联系删文。

推荐阅读

重点介绍:1、3D视觉算法;2、vslam算法;3、图像处理;4、深度学习;5、自动驾驶;6、技术干货。 博主及合伙人分别来国内自知名大厂、海康研究院,深研3D视觉、深度学习、图像处理、自动驾驶、目标检测、VSLAM算法等领域。
欢迎关注微信公众号
image.png
推荐阅读
关注数
1100
内容数
100
专注于3D视觉,Vslam,图像处理等,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息