首页 游戏 软件 资讯 排行榜 专题
首页
AI
轻松上手安全帽检测

轻松上手安全帽检测

热心网友
71
转载
2025-07-20
及时排查安全帽佩戴的规范性并给予提醒,可以大大降低施工安全隐患。通过使用PaddleX中目标检测算法PP-YOLOV2进行视频分析,监控安全帽佩戴,可以提升施工安全系数,辅助实现施工现场智能化建设。

轻松上手安全帽检测 - 游乐网

1.项目说明

在该项目中,主要向大家介绍如何使用目标检测来实现对安全帽的检测,涉及代码以及优化过程亦可用于其它目标检测任务等。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

在施工现场,对于来往人员,以及工作人员而言,安全问题至关重要。而安全帽更是保障施工现场在场人员安全的第一防线,因此需要对场地中的人员进行安全提醒。当人员未佩戴安全帽进入施工场所时,人为监管耗时耗力,而且不易实时监管,过程繁琐、消耗人力且实时性较差。针对上述问题,希望通过视频监控->目标检测->智能督导的方式智能、高效的完成此任务。

5月12日晚19:00,我们将在线分享安全帽检测方案详解和避坑指南,30分钟直达产业项目落地! 欢迎大家扫码报名直播课,如有更多技术交流与合作,也欢迎大家扫码进群。

轻松上手安全帽检测 - 游乐网

业务难点:

精度要求高 由于涉及安全问题,需要精度非常高才能保证对施工场所人员的安全督导。需要专门针对此目标的检测算法进行优化。精度要求高 监控受拍摄角度、光线变化、天气影响,有时会存在遮挡,导致安全帽显示不全,对检测具有一定的干扰。小目标检测 由于实际使用过程中,人员离镜头较远,因此需要模型对小目标的检测有较低的漏检率。轻松上手安全帽检测 - 游乐网

2.数据准备

数据集中包含了5000张已经标注好的数据。该项目采用目标检测的标注方式,在本文档中提供了VOC数据集格式。

解压项目提供的数据:

In [ ]
!unzip  /home/aistudio/data/data50329/HelmetDetection.zip -d /home/aistudio/work/dataset
登录后复制

更改一下命名:

dataset/                          dataset/  ├── annotations/      -->         ├── Annotations/  ├── images/                       ├── JPEGImages/
登录后复制In [ ]
%cd /home/aistudio/work/dataset%mv annotations Annotations%mv images JPEGImages
登录后复制

数据集分类情况: head , helmet, person.

更多数据格式信息请参考数据标注说明文档

安装PaddleX:

In [ ]
!pip install paddlex
登录后复制数据切分 将训练集和验证集按照8.5:1.5的比例划分。 PaddleX中提供了简单易用的API,方便用户直接使用进行数据划分。In [ ]
!paddlex --split_dataset --format voc --dataset_dir /home/aistudio/work/dataset --val_value 0.15
登录后复制
dataset/                          dataset/  ├── Annotations/      -->         ├── Annotations/  ├── JPEGImages/                   ├── JPEGImages/                                    ├── labels.txt                                    ├── train_list.txt                                    ├── val_list.txt
登录后复制

3.模型选择

PaddleX提供了丰富的视觉模型,在目标检测中提供了RCNN和YOLO系列模型。在本项目中采用YOLO作为检测模型进行安全帽检测。

4. 模型训练

在本项目中,采用YOLOV3作为安全帽检测的基线模型,以COCO指标作为评估指标。具体代码请参考train.py

运行如下代码开始训练模型:

In [ ]
# 单卡训练%cd /home/aistudio/!python /home/aistudio/code/train.py
登录后复制In [ ]
# 四卡训练%cd /home/aistudio/!export CUDA_VISIBLE_DEVICES=0,1,2,3!python -m paddle.distributed.launch --gpus 0,1,2,3 /home/aistudio/code/train.py
登录后复制训练过程说明轻松上手安全帽检测 - 游乐网

5.模型优化(进阶)

精度提升 为了进一步提升模型的精度,可以通过coco_error_analysis

精度优化思路分析

本小节侧重展示在模型迭代过程中优化精度的思路,在本案例中,有些优化策略获得了精度收益,而有些没有。在其他场景中,可根据实际情况尝试这些优化策略。

(1) 基线模型选择

相较于二阶段检测模型,单阶段检测模型的精度略低但是速度更快。考虑到是部署到GPU端,本案例选择单阶段检测模型YOLOV3作为基线模型,其骨干网络选择DarkNet53。训练完成后,模型在验证集上的精度如下:

(2) 基线模型效果分析与优化

使用PaddleX提供的paddlex.det.coco_error_analysis接口对模型在验证集上预测错误的原因进行分析,分析结果以图表的形式展示如下:

分析图表展示了7条Precision-Recall(PR)曲线,每一条曲线表示的Average Precision (AP)比它左边那条高,原因是逐步放宽了评估要求。以helmet类为例,各条PR曲线的评估要求解释如下:

C75: 在IoU设置为0.75时的PR曲线, AP为0.681。C50: 在IoU设置为0.5时的PR曲线,AP为0.946。C50与C75之间的白色区域面积代表将IoU从0.75放宽至0.5带来的AP增益。Loc: 在IoU设置为0.1时的PR曲线,AP为0.959。Loc与C50之间的蓝色区域面积代表将IoU从0.5放宽至0.1带来的AP增益。蓝色区域面积越大,表示越多的检测框位置不够精准。Sim: 在Loc的基础上,如果检测框与真值框的类别不相同,但两者同属于一个亚类,则不认为该检测框是错误的,在这种评估要求下的PR曲线, AP为0.961。Sim与Loc之间的红色区域面积越大,表示子类间的混淆程度越高。VOC格式的数据集所有的类别都属于同一个亚类。Oth: 在Sim的基础上,如果检测框与真值框的亚类不相同,则不认为该检测框是错误的,在这种评估要求下的PR曲线,AP为0.961。Oth与Sim之间的绿色区域面积越大,表示亚类间的混淆程度越高。VOC格式的数据集中所有的类别都属于同一个亚类,故不存在亚类间的混淆。BG: 在Oth的基础上,背景区域上的检测框不认为是错误的,在这种评估要求下的PR曲线,AP为0.970。BG与Oth之间的紫色区域面积越大,表示背景区域被误检的数量越多。FN: 在BG的基础上,漏检的真值框不认为是错误的,在这种评估要求下的PR曲线,AP为1.00。FN与BG之间的橙色区域面积越大,表示漏检的真值框数量越多。

从分析图表中可以看出,head、helmet两类检测效果较好,但仍然存在漏检的情况,特别是person存在很大的漏检问题;此外,通过helmet中C75指标可以看出,其相对于C50的0.946而言有些差了,因此定位性能有待进一步提高。为进一步理解造成这些问题的原因,将验证集上的预测结果进行了可视化,然后发现数据集标注存在以下问题:

本数据集主要考虑到头部和安全帽的检测,因此在人检测时,有个图片中标注了,而有的图片中没有标注,从而导致学习失效,引发person漏检。head与helmet大多数情况标注较好,但由于部分拍摄角度导致有的图片中的head和helmet发生重叠以及太小导致学习有困难。

考虑到漏检问题,一般是特征学习不够,无法识别出物体,因此基于这个方向,尝试替换backbone: DarkNet53 --> ResNet50_vd_dcn,在指标上的提升如下:

考虑到定位问题,通过尝试放大图片,不同的网络结构以及定位的优化策略: 利用cluster_yolo_anchor生成聚类的anchor或开启iou_aware。最终得到上线模型PPYOLOV2的精度如下:

其中helmet类误差分析如下图:

轻松上手安全帽检测 - 游乐网

从分析表中可以看出:

C75指标效果明显改善,定位更加准确:从0.681提升到0.742。其中BG到FN的差距从0.03降低到了0.02,说明漏检情况有所改善。其中Loc与Sim的差距从0.002降低到了0.001,说明混淆程度也下降了。其中Oth与BG的差距从0.019降低到了0.015,说明检测错误下降了。

本项目优化整体分析可归纳为以下几点:

通过选用适当更优的骨干网络可以改善漏检的情况,因此漏检方面的优化可以考虑先从骨干网络替换上开始——当然必要的数据清洗也是不可缺少的,要是数据集本身漏标,则会从根本上影响模型的学习。通过放大图像,可以对一些中小目标的物体检测起到一定的优化作用。通过聚类anchor以及iou_aware等操作可以提高模型的定位能力,直接体现是再高Iou上也能有更好的表现。【因此,定位不准可以从模型的anchor以及模型的结构上入手进行优化】

(3) 数据增强选择

在加入了RandomHorizontalFlip、RandomDistort、RandomCrop、RandomExpand、BatchRandomResize、MixupImage这几种数据增强方法后,对模型的优化是有一定的积极作用了,在取消这些预处理后,模型性能会有一定的下降。

PS:建议在训练初期都加上这些预处理方法,到后期模型超参数以及相关结构确定最优之后,再进行数据方面的再优化: 比如数据清洗,数据预处理方法筛选等。

6优化结论

采用PaddleX在Tesla V100上测试模型的推理时间(输入数据拷贝至GPU的时间、计算时间、数据拷贝至CPU的时间),推理时间如下表所示:(十次推理取平均耗时)

注意:

608的图像大小,一般使用默认的anchors进行训练和推理即可。cluster_yolo_anchor: 用于生成拟合数据集的模型anchor。label_smooth: 通常用于当模型能够较好的拟合训练集时,进行正则化处理,提高训练模型的泛化能力——即测试/评估精度。
anchors = train_dataset.cluster_yolo_anchor(num_anchors=9, image_size=480)anchor_masks = [[6, 7, 8], [3, 4, 5], [0, 1, 2]]
登录后复制

优化进展说明:

1.通过选择更好的backbone作为特征提取的骨干网络可以提高识别率、降低漏检率。

2.通过选择更好的检测架构可以提高检测的mmap值——即Neck,Head部分的优化可以提高ap。

3.缩放适当的图像大小可以提高模型的识别率,但是存在一定的阈值——当图像大小到某一个阈值时会导致精度下降。

一般图像大小选择(YOLO系列):320,480, 608。一般图像如果较大,物体也比较大,可以较为放心的缩小图像大小再进行相关的训练和预测。物体较小,不易缩小,可以适当的裁剪划分原图或放大,并处理对应的标注数据,再进行训练。

4.通过cluster_yolo_anchor生成当前网络输入图像大小下拟合数据集的预置anchors,利用新生成的anchors替换原来的默认anchor,使得模型预测定位上框选位置更准确。

5.通过PPYOLO两个实验,一个使用iou_aware,一个不是使用iou_aware而采用聚类得到的anchor提高定位能力;分析数据发现在定位信息优化上,iou_aware在当前数据集上表现更好,但推理时间也有所提升。

6.通过PPYOLO两个实验,一个使用label_smooth,一个不使用,分析出使用label_smooth可以让模型在验证集上表现更好了。

通过以上的简单优化方式,获取了两个较好的模型结果:

7.模型预测

运行如下代码:

In [ ]
!python code/infer.py
登录后复制

则可生成result.txt文件并显示预测结果图片,result.txt文件中会显示图片中每个检测框的位置、类别及置信度, 从而实现了安全帽的自动检测。

预测结果如下:

轻松上手安全帽检测 - 游乐网

8.模型导出

模型训练后保存在output文件夹,如果要使用PaddleInference进行部署需要导出成静态图的模型,运行如下命令,会自动在output文件夹下创建一个inference_model的文件夹,用来存放导出后的模型。

In [ ]
!paddlex --export_inference --model_dir=/home/aistudio/models/yolov3_darknet53 \         --save_dir=output/inference_model --fixed_input_shape=[480,480]
登录后复制

基于导出的模型,在单张图像上做推理:

In [ ]
import paddlex as pdxpredictor = pdx.deploy.Predictor('/home/aistudio/output/inference_model/inference_model')img_path = '/home/aistudio/work/97ce96584315ba13a4927c8a0.webp'result = predictor.predict(img_file=img_path)print(result)
登录后复制

可视化:

In [9]
%matplotlib inlineimport matplotlib.pyplot as plt # plt 用于显示图片import numpy as npimport cv2import ossave_dir='/home/aistudio/'pdx.det.visualize(img_path, result, save_dir=save_dir)path,filename = os.path.split(img_path)output_path = os.path.join(save_dir,"visualize_"+filename)pic = cv2.imread(output_path)pic = cv2.cvtColor(pic, cv2.COLOR_BGR2RGB)plt.imshow(pic)plt.axis('off') # 不显示坐标轴plt.show()
登录后复制
2024-05-11 11:11:49 [INFO]The visualized result is saved at /home/aistudio/visualize_97ce96584315ba13a4927c8a0.webp
登录后复制
登录后复制

对视频数据抽帧进行检测:

In [ ]
import cv2import paddlex as pdximport numpy as npimport colorsysimport ospredictor = pdx.deploy.Predictor('/home/aistudio/output/inference_model/inference_model')cap = cv2.VideoCapture('/home/aistudio/work/Industry.mp4')save_dir='/home/aistudio/frames'if not os.path.exists(save_dir):    os.makedirs(save_dir)i = 1det_rate = 20save_dir = "/home/aistudio/frames/"while cap.isOpened():    ret, frame = cap.read()    if ret :        if i%det_rate==0:            result = predictor.predict(frame)            print(i)            vis_img = pdx.det.visualize(frame, result, save_dir=save_dir)                        # 本地环境可以实时查看安全帽检测效果            # cv2.imshow('hatdet', vis_img)            if cv2.waitKey(1) & 0xFF == ord('q'):                break                i += 1    else:        breakcap.release()
登录后复制

注意:设定 fixed_input_shape 的数值需与 eval_transforms 中设置的 target_size 数值上保持一致。

9.模型上线选择

本案例面向GPU端的最终方案是选择一阶段检测模型PPYOLOV2,其骨干网络选择加入了可变形卷积(DCN)的ResNet50_vd,训练阶段数据增强策略采用RandomHorizontalFlip、RandomDistort、RandomCrop等。

在Tesla V100的Linux系统下,模型的推理时间大约为81.52ms/image,包括transform、输入数据拷贝至GPU的时间、计算时间、数据拷贝至CPU的时间。

上线模型的PR曲线:

轻松上手安全帽检测 - 游乐网

在本项目中的安全帽检测数据中,标注信息本身存在一定的缺漏,导致部分类别学习失效。但针对本项目的安全帽检测问题而言,person(人)这一类别影响不大,因此可以在mmap较大的基础上主要看helmet(安全帽)的精度即可。通过COCO的评估指标,可以使多类别的检测模型的评估更加符合实际应用;虽然我们可以看出在该数据集中,有一个类别对整体的map与mmap有较大影响,但是通过COCO指标能够取得一个相对数据集更综合表现(不同Iou尺度下)的一个模型。

注意: 通过VOC指标也许能够取得更好的Iou-0.5指标下更好的数据,但是却会使得对多Iou尺度的一个评估,使得得到该评估指标下最好的模型未必在其它Iou尺度下也有最好的表现。

10.模型部署方式

10.1 Jetson设备C++ inference部署

模型部署采用了PaddleX提供的C++ inference部署方案,在该方案中提供了在端侧设备Jetson部署Demo,用户可根据实际情况自行参考。

轻松上手安全帽检测 - 游乐网

10.2 PaddleHub轻量级服务化部署

借助PaddleHub-Serving,可以将PaddleX的Inference Model进行快速部署,以提供在线预测的能力。参考链接:https://paddlex.readthedocs.io/zh_CN/release-1.3/deploy/hub_serving.html。

更新PaddleHub版本:``

In [ ]
!pip install --upgrade paddlehub -i https://pypi.tuna.tsinghua.edu.cn/simple
登录后复制

将PaddleX的Inference Model转换成PaddleHub的预训练模型,使用命令hub convert即可一键转换:

In [12]
!hub convert --model_dir /home/aistudio/output/inference_model/inference_model --module_name helmet_hub
登录后复制
The converted module is stored in `helmet_hub_1652238760.0615911`.
登录后复制

模型转换后,得到helmet_hub.tar.gz压缩包,在进行部署之前需要先安装到本机,使用命令hub install即可一键安装:

In [ ]
!hub install helmet_hub_1652166294.6532774/helmet_hub.tar.gz
登录后复制

接下来,只需要使用hub serving命令即可完成模型的一键部署:

In [ ]
!hub serving start -m helmet_hub
登录后复制

客户端请求:

In [ ]
# coding: utf8import requestsimport jsonimport cv2import base64def cv2_to_base64(image):    data = cv2.imencode('.webp', image)[1]    return base64.b64encode(data.tostring()).decode('utf8')if __name__ == '__main__':    # 获取图片的base64编码格式    img1 = cv2_to_base64(cv2.imread("/home/aistudio/work/97ce96584315ba13a4927c8a0.webp"))    data = {'images': [img1]}    # 指定content-type    headers = {"Content-type": "application/json"}    # 发送HTTP请求    url = "https://127.0.0.1:8866/predict/helmet_hub"    r = requests.post(url=url, headers=headers, data=json.dumps(data))    # 打印预测结果    print(r.json()["results"])
登录后复制轻松上手安全帽检测 - 游乐网轻松上手安全帽检测 - 游乐网轻松上手安全帽检测 - 游乐网轻松上手安全帽检测 - 游乐网
来源:https://www.php.cn/faq/1410269.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

37年历史落幕!Linux取消支持Intel 486 CPU
电脑教程
37年历史落幕!Linux取消支持Intel 486 CPU

4月6日消息,诞生37年的Intel486处理器,即将彻底告别现代Linux系统。据科技媒体Phoronix报道,Linux内核开发者已启动对486处理器支持的移除工作,相关补丁确认将合入Linux

热心网友
04.07
Win11 → WSL2 → Ubuntu → OpenClaw大龙虾安装
AI
Win11 → WSL2 → Ubuntu → OpenClaw大龙虾安装

Win11 → WSL2 → Ubuntu → OpenClaw 的直接流程 想在 Windows 上顺畅地用上 OpenClaw?其实核心就一条:先在 WSL2 里搭好 Ubuntu 这个“标准环境”。下面这个流程,你按顺序一步步执行就行,能避开不少弯路。 第一步:安装 WSL2 与 Ubuntu

热心网友
04.07
wsl安装OpenClaw
AI
wsl安装OpenClaw

参考指南与学习资料 若您希望在本地快速搭建并部署一个个人智能助手,OpenClaw 框架是一个理想的入门选择。为了帮助开发者更高效地上手,社区中已有丰富的学习资源与讨论可供参考,主要包括:OpenClaw 新手入门教程、核心命令行工具使用指南(openclaw -h 查看帮助)、配置文件的参数详解,

热心网友
04.02
openclaw 究极离谱的坑
AI
openclaw 究极离谱的坑

1 openclaw 工具权限报错解决方案:无法使用 exec read write webfetch 等工具的修复方法 当您在配置 openclaw 时遇到工具权限报错,提示缺少 exec、read、write、webfetch 等关键工具的使用权限,通常无需深入排查复杂的系统环境。此问题在多数

热心网友
04.02
OpenClaw 安装教程(Linux)
AI
OpenClaw 安装教程(Linux)

本次部署指南的核心目标非常明确:在 Linux 环境中,无论是云服务器还是本地物理机,我们都需要完整地完成 OpenClaw 智能体框架的安装与部署,并通过基础的健康检查与功能验证,确保整个系统能够成功启动并稳定运行。 一、环境要求 在开始动手安装之前,我们首先需要确认系统满足所有的基础运行环境要求

热心网友
04.02

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

比特币重探7万美元,市场已全面消化美伊战争风险?
web3.0
比特币重探7万美元,市场已全面消化美伊战争风险?

清明节假期期间,A 股和港股休市,但比特币行情永不停歇。 4月6日,当多数市场还在假期中沉睡时,比特币已经悄然启动。价格从亚洲早盘的低点67400美元出发,一路向上试探,盘中最高涨破70300美元,不仅刷新了3月26日以来的高位,较日内低点的涨幅也超过了4%。以太坊的表现同样不俗,从2050美元附近

热心网友
04.07
魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰
网络安全
魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

4月5日消息,日前,REDMI K90至尊版通过3C认证,预计将于本月发布。今日,小米中国区市场部总经理魏思琪用小米新机发布微博,不出意外,这正是即将登场的REDMI K90至尊版,这将是小米首款配

热心网友
04.07
WPS动态交互图表制作指南:让数据变化直观呈现
电脑教程
WPS动态交互图表制作指南:让数据变化直观呈现

WPS演示中图表不随数据更新时,可通过四种方法实现自动同步:一、用OFFSET+COUNTA定义动态名称绑定图表;二、用组合框控件联动VLOOKUP提取数据;三、用数据透视图配合切

热心网友
04.07
“链接未来·智汇静安”区块链创新应用优秀场景分享(四)| 信医基于区块链与隐私计算的真实世界研究数据产品
科技数码
“链接未来·智汇静安”区块链创新应用优秀场景分享(四)| 信医基于区块链与隐私计算的真实世界研究数据产品

聚焦数字技术,释放创新动能。为集中展示静安区区块链技术从“实验室”走向“应用场”的丰硕成果,挖掘一批可复制、可推广的行业解决方案,加速构建区块链产业生态闭环,静安区数据局特推出“静安区区块链创新应用

热心网友
04.07
天上的马桶与地上的火药桶,都在让美国出糗
科技数码
天上的马桶与地上的火药桶,都在让美国出糗

太空中的马桶堵了,边飞边修还能勉强用。但中东被点燃的火药桶,美国怎么来扑灭?靠一再延期的“最后通牒”?还是靠无底线的轰炸?2300万美元的马桶美国航空航天局4名宇航员1日搭乘“猎户座”飞船升空,执行

热心网友
04.07