基于YOLOv3实现跌倒检测
本教程介绍如何用PaddleDetection的YOLOv3模型实现摔倒检测。步骤包括解压VOC格式数据集、安装相关包、划分数据集,修改配置文件后训练模型,还涉及模型评估、预测及可视化,最后说明Paddle Inference、Serving、Lite等部署方式,mAP达80.28%,可用于监控场景。

基于YOLOv3模型实现摔倒检测
教程目的: 通过PaddleDetection API熟悉经典的目标检测框架,为下一步自己手写实现目标检测网络打基础
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
教程内容: 以PaddleDetection API中的特色模型为例,介绍网络结构,以及如何使用此框架训练自己的数据集
数据准备: 本教程基于易华录开发者社区的人体摔倒姿态检测数据实现了摔倒检测模型的训练。
PaddelDetection: 为方便读者体验,存放在PaddleDetection。
其他说明: 本教程所有命令均在Notebook中执行。
本次项目实验步骤以及实验结果
本次实验通过使用PaddleDetection2.0中的YOLOv3(主干网络为mobilenetv3的轻量化模型),通过几行代码就能实现跌倒的目标检测,后期可部署用于监控医院、疗养院甚至家里等。
按以下几个步骤来介绍项目实现流程。
解压自定义的数据集;
下载安装PaddleDetection包;
自定义数据集划分;
选择模型(本次选择YOLO-v3)进行训练:训练的配置文件说明;
效果可视化:使用训练好的模型进行预测,同时对结果进行可视化;
模型评估和预测:评估模型效果;
预测结果
PaddleDetection 预测部署
检测效果如下图所示:
数据和环境准备
数据解压
将把完成好标注的跌倒图片(VOC格式数据集)进行解压。
In [ ]!unzip -oq /home/aistudio/data/data115779/fall.zip -d /home/aistudio/work/登录后复制
准备环境
目前代码的版本是release/2.0,需要使用PaddlePaddle2.0.2版本。
In [ ]! git clone https://gitee.com/paddlepaddle/PaddleDetection.git登录后复制
安装PaddleDetection依赖库:
In [17]%cd /home/aistudio/PaddleDetection/!pip install -r requirements.txt登录后复制
自定义数据集的划分
本案例原始数据存在标注错误的情况,如标注数据中图像长宽为0,本案例将这部分数据剔除掉,不参与训练和测试。
将数据集按照9:1的比例进行划分,并生成train.txt和val.txt进行训练
In [ ]import randomimport osimport xml.etree.ElementTree as ET#生成train.txt和val.txtrandom.seed(2020)data_root_dir = '/home/aistudio/work/fall'path_list = list()labels = []#['down','person']#设置你想检测的类别print("数据总数:",len(os.listdir(data_root_dir))/2)for img in os.listdir(data_root_dir): if not img.endswith(".webp"): continue img_path = os.path.join(data_root_dir,img) xml_path = os.path.join(data_root_dir,img.replace('jpg', 'xml')) # 读取xml获取标签 tree = ET.parse(xml_path) root = tree.getroot() # 有些数据标注有问题,如图像大小为空0,过滤掉 size=root.find('size') width = float(size.find('width').text) height = float(size.find('height').text) if width==0 or height==0: continue for obj in root.iter('object'): difficult = int(obj.find('difficult').text) cls_name = obj.find('name').text.strip().lower() if cls_name not in labels: labels.append(cls_name) path_list.append((img_path, xml_path))print("有效数据个数:",len(path_list))random.shuffle(path_list)ratio = 0.9train_f = open('/home/aistudio/work/train.txt','w') #生成训练文件val_f = open('/home/aistudio/work/val.txt' ,'w')#生成验证文件for i ,content in enumerate(path_list): img, xml = content text = img + ' ' + xml + '\n' if i < len(path_list) * ratio: train_f.write(text) else: val_f.write(text)train_f.close()val_f.close()#生成标签文档print(labels)with open('/home/aistudio/work/label_list.txt', 'w') as f: for text in labels: f.write(text+'\n')登录后复制 数据总数: 7782.0有效数据个数: 7713['down', 'person', '10+', 'dog']登录后复制
模型训练
用户在选择好模型后,只需要改动对应的配置文件后,只需要运行train.py文件,即可实现训练。
本项目中,使用YOLOv3模型里的yolov3_mobilenet_v3_large_ssld_270e_voc.yml进行训练
配置文件示例
我们使用configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml配置进行训练。 在PaddleDetection2.0中,模块化做的更好,可以可自由修改覆盖各模块配置,进行自由组合。
配置文件详细说明
从上图看到yolov3_mobilenet_v3_large_ssld_270e_voc.yml配置需要依赖其他的配置文件。在该例子中需要依赖:
在修改文件之前,先给大家解释一下各依赖文件的作用:
'_base_/optimizer_270e.yml',主要说明了学习率和优化器的配置,以及设置epochs。在其他的训练的配置中,学习率和优化器是放在了一个新的配置文件中。 '../datasets/voc.yml'主要说明了训练数据和验证数据的路径,包括数据格式(coco、voc等) '_base_/yolov3_reader.yml', 主要说明了读取后的预处理操作,比如resize、数据增强等等 '_base_/yolov3_mobilenet_v3_large.yml',主要说明模型、和主干网络的情况说明。 '../runtime.yml',主要说明了公共的运行状态,比如说是否使用GPU、迭代轮数等等登录后复制
数据配置如下:
configs/datasets/voc.yml
../datasets/voc.yml
metric: VOCmap_type: 11pointnum_classes: 4TrainDataset: !VOCDataSet dataset_dir: /home/aistudio/work anno_path: train.txt label_list: label_list.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']EvalDataset: !VOCDataSet dataset_dir: /home/aistudio/work anno_path: val.txt label_list: label_list.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']TestDataset: !ImageFolder anno_path: /home/aistudio/work/label_list.txt登录后复制 num_classes为目标类别数目;dataset_dir为数据存放目录;anno_path为标注文件相对路径;label_list为标签列表。
base/optimizer_270e.yml
执行训练
执行下面命令开始进行训练,需要指定训练配置文件路径-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml,--eval参数指定在训练过程中进行评估。
In [ ]%cd /home/aistudio/PaddleDetection!python tools/train.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml --eval登录后复制
模型评估
需要指定评估配置文件路径-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml,被评估的模型路径-o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams。
In [ ]%cd /home/aistudio/PaddleDetection/!python -u tools/eval.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml \-o weights=/home/aistudio/work/best_model.pdparams登录后复制
模型预测
在执行tools/infer.py后,在output文件夹下会生成对应的预测结果。
需要指定:
预测配置文件-c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml;预测用到的模型-o weights=/home/aistudio/work/best_model.pdparams;预测的图像路径--infer_img=/home/aistudio/work/people_930.webp。In [14]!python tools/infer.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml \ -o weights=/home/aistudio/work/best_model.pdparams \ --infer_img=/home/aistudio/work/people_930.webp登录后复制
推理结果可视化:
In [18]%matplotlib inlineimport matplotlib.pyplot as plt import cv2infer_img = cv2.imread("output/people_930.webp")plt.figure(figsize=(15, 10))plt.imshow(cv2.cvtColor(infer_img, cv2.COLOR_BGR2RGB))plt.show()登录后复制 登录后复制
PaddleDetection 预测部署
PaddleDetection提供了Paddle Inference、Paddle Serving、Paddle-Lite多种部署形式,支持服务端、移动端、嵌入式等多种平台,提供了完善的Python和C++部署方案。
PaddleDetection支持的部署形式说明
Paddle Inference部署
导出模型
导出模型,默认存储于PaddleDetection/output_inference目录
In [19]%cd /home/aistudio/PaddleDetection!python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml \ -o weights=/home/aistudio/work/best_model.pdparams登录后复制
使用PaddleInference进行预测
Python部署 支持CPU、GPU和XPU环境,支持,windows、linux系统,支持NV Jetson嵌入式设备上部署。参考文档python部署C++部署 支持CPU、GPU和XPU环境,支持,windows、linux系统,支持NV Jetson嵌入式设备上部署。参考文档C++部署PaddleDetection支持TensorRT加速,相关文档请参考TensorRT预测部署教程注意: Paddle预测库版本需要>=2.1,batch_size>1仅支持YOLOv3和PP-YOLO。
In [20]!python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc \ --image_file=/home/aistudio/work/people_930.webp --use_gpu=True登录后复制
推理数据
推理时间:Inference: 30.33137321472168 ms per batch image
检测出目标id,置信度以及预测框的坐标:class_id:0, confidence:0.6939, left_top:[254.97,189.10],right_bottom:[333.20,224.15]
保存路径:save result to: output/fall_39.webp
PaddleServing部署
安装 paddle serving
请参考PaddleServing中安装教程安装(版本>=0.6.0)。
导出模型
如果需要导出PaddleServing格式的模型,需要设置export_serving_model=True:
python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams --export_serving_model=True登录后复制
预测模型会导出到output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc目录下,分别为infer_cfg.yml, model.pdiparams, model.pdiparams.info, model.pdmodel, serving_client/文件夹, serving_server/文件夹。
模型导出具体请参考文档PaddleDetection模型导出教程。
In [21]# 安装paddle_serving_client!pip install paddle_serving_client登录后复制 In [22]
!python tools/export_model.py -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml \-o weights=/home/aistudio/work/best_model.pdparams \--export_serving_model=True登录后复制
使用PaddleServing进行预测
安装PaddleServing使用PaddleServingPaddleLite部署
使用PaddleLite部署PaddleDetection模型详细案例请参考Paddle-Lite-Demo部署。更多内容,请参考Paddle-LiteBenchmark测试
PP-YOLO模型benchmark测试为不包含数据预处理和网络输出后处理(NMS)的网络结构部分数据,导出模型时须指定--exlcude_nms来裁剪掉模型中后处理的NMS部分,通过如下命令进行模型导出和benchmark测试。
# 导出模型,通过--exclude_nms参数裁剪掉模型中的NMS部分,默认存储于output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc目录python tools/export_model.py -c -c configs/yolov3/yolov3_mobilenet_v3_large_ssld_270e_voc.yml -o weights=output/yolov3_mobilenet_v3_large_ssld_270e_voc/best_model.pdparams --exclude_nms# FP32 benchmark测试CUDA_VISIBLE_DEVICES=0 python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/fall3.webp --use_gpu=True --run_benchmark=True --run_mode=trt_fp32# TensorRT FP16 benchmark测试CUDA_VISIBLE_DEVICES=0 python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/fall3.webp --use_gpu=True --run_benchmark=True --run_mode=trt_fp16登录后复制 In [24]
!python deploy/python/infer.py --model_dir=output_inference/yolov3_mobilenet_v3_large_ssld_270e_voc --image_file=/home/aistudio/work/people_930.webp \--use_gpu=True --run_benchmark=True登录后复制
总结
由上图我们可以看到,使用PaddleDetection完成了跌倒的目标识别检测,并且mAP已经达到了80.28%。
优化方案
可以通过增加数据集、选择更优化模型,增加训练的次数。
后期应用
后期可以部署到医院、疗养院等公共场合,甚至家里的监控中实现跌倒目标检测,可以及时救援,以免造成更大的损失。
更多深度学习资源
一站式深度学习平台awesome-DeepLearning
深度学习入门课
相关攻略
4月6日消息,诞生37年的Intel486处理器,即将彻底告别现代Linux系统。据科技媒体Phoronix报道,Linux内核开发者已启动对486处理器支持的移除工作,相关补丁确认将合入Linux
Win11 → WSL2 → Ubuntu → OpenClaw 的直接流程 想在 Windows 上顺畅地用上 OpenClaw?其实核心就一条:先在 WSL2 里搭好 Ubuntu 这个“标准环境”。下面这个流程,你按顺序一步步执行就行,能避开不少弯路。 第一步:安装 WSL2 与 Ubuntu
参考指南与学习资料 若您希望在本地快速搭建并部署一个个人智能助手,OpenClaw 框架是一个理想的入门选择。为了帮助开发者更高效地上手,社区中已有丰富的学习资源与讨论可供参考,主要包括:OpenClaw 新手入门教程、核心命令行工具使用指南(openclaw -h 查看帮助)、配置文件的参数详解,
1 openclaw 工具权限报错解决方案:无法使用 exec read write webfetch 等工具的修复方法 当您在配置 openclaw 时遇到工具权限报错,提示缺少 exec、read、write、webfetch 等关键工具的使用权限,通常无需深入排查复杂的系统环境。此问题在多数
本次部署指南的核心目标非常明确:在 Linux 环境中,无论是云服务器还是本地物理机,我们都需要完整地完成 OpenClaw 智能体框架的安装与部署,并通过基础的健康检查与功能验证,确保整个系统能够成功启动并稳定运行。 一、环境要求 在开始动手安装之前,我们首先需要确认系统满足所有的基础运行环境要求
热门专题
热门推荐
加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这
微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票





