首页 游戏 软件 资讯 排行榜 专题
首页
AI
【公共场所吸烟检测吸烟】爸,你还敢抽烟么

【公共场所吸烟检测吸烟】爸,你还敢抽烟么

热心网友
42
转载
2025-07-22
该项目针对公共场所禁烟效果不佳问题,基于PaddleX训练模型,结合语音播报实现控烟。先处理数据集,修改XML文件适配格式,清理冗余文件并划分训练、验证、测试集(7:2:1)。用PPYolo模型训练300个epoch,第277个效果最佳,map约76。导出模型后部署,通过摄像头检测,阈值≥0.3时播放禁烟语音。

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 游乐网

不抽烟,也没有烟,所以只能以这种形式代替了

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

爸,这下你还敢抽烟吗?/邪笑

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 游乐网        

我爸:这锅我不背!!

项目背景

  2014年11月24日,卫生计生委起草了《公共场所控制吸烟条例(送审稿)》向社会公开征求意见。送审稿明确,所有室内公共场所一律禁止吸烟。此外,体育、健身场馆的室外观众坐席、赛场区域;公共交通工具的室外等候区域等也全面禁止吸烟。而《公共场所控制吸烟条例》实施后,卫计委将考虑为控烟条例设置举报电话,同时开展监测评估,鼓励全社会参与戒烟活动。 

  但有很多人秉持“多一事不如少一事”的原则:“欸,有点电话就不打,我就忍着!”,导致社会公共场所禁烟效果普遍不佳。

  因而“公共场所,禁止吸烟”的标牌,也渐渐沦为了摆设。

【公共场所吸烟检测吸烟】爸,你还敢抽烟么 - 游乐网        

项目介绍

  本项目基于PaddleX进行模型训练,并利用inference导出后部署在本地,并使用百度大脑合成后进行“公共场所,禁止吸烟”的语音播报。

首先导入使用PaddleX时所需的模块

In [9]
!pip install paddlex!pip install paddle2onnx
登录后复制    In [65]
# 进行数据集解压!unzip -oq /home/aistudio/data/data86368/smoke.zip -d /home/aistudio/dataset2
登录后复制    

  下面这个check.py是我在开发过程中遇到点小问题在PaddleX的Github issue中找到的,后面我们会提到这个脚本的功能。
(深刻启示:有问题就去逛issue!!!要相信你现在所遇到的绝大多数问题已经有“先烈”替你趟过了!即使没有也可以提issue!飞桨的开发小哥哥们回复也是炒鸡快!!!!)

In [52]
!mv check.py dataset
登录后复制    

数据处理和数据清洗

  在执行数据集解压命令后,可以看到本数据集提供了images和Annotations两个文件夹,分别存放.webp和.xml文件。为了能够顺利使用PaddleX进行数据集划分和模型训练,需要将原本数据集修改为符合PaddleX数据集格式的数据集。In [53]
# 这里修改.xml文件中的元素!mkdir dataset/Annotations1import xml.dom.minidomimport ospath = r'dataset/Annotations'  # xml文件存放路径sv_path = r'dataset/Annotations1'  # 修改后的xml文件存放路径files = os.listdir(path)cnt = 1for xmlFile in files:    dom = xml.dom.minidom.parse(os.path.join(path, xmlFile))  # 打开xml文件,送到dom解析    root = dom.documentElement  # 得到文档元素对象    item = root.getElementsByTagName('path')  # 获取path这一node名字及相关属性值    for i in item:        i.firstChild.data = '/home/aistudio/dataset/JPEGImages/' + str(cnt).zfill(6) + '.webp'  # xml文件对应的图片路径    with open(os.path.join(sv_path, xmlFile), 'w') as fh:        dom.writexml(fh)    cnt += 1
登录后复制    In [55]
# 这里修改.xml文件中的元素!mkdir dataset/Annotations2import xml.dom.minidomimport ospath = r'dataset/Annotations1'  # xml文件存放路径sv_path = r'dataset/Annotations2'  # 修改后的xml文件存放路径files = os.listdir(path)for xmlFile in files:    dom = xml.dom.minidom.parse(os.path.join(path, xmlFile))  # 打开xml文件,送到dom解析    root = dom.documentElement  # 得到文档元素对象    names = root.getElementsByTagName('filename')    a, b = os.path.splitext(xmlFile)  # 分离出文件名a    for n in names:        n.firstChild.data = a + '.webp'    with open(os.path.join(sv_path, xmlFile), 'w') as fh:        dom.writexml(fh)
登录后复制    In [56]
# 这里修改.xml文件中的元素!mkdir dataset/Annotations3#!/usr/bin/env python2# -*- coding: utf-8 -*- import osimport xml.etree.ElementTree as ET origin_ann_dir = '/home/aistudio/dataset/Annotations2/'# 设置原始标签路径为 Annosnew_ann_dir = '/home/aistudio/dataset/Annotations3/'# 设置新标签路径 Annotationsfor dirpaths, dirnames, filenames in os.walk(origin_ann_dir):   # os.walk游走遍历目录名  for filename in filenames:    print("process...")    # if os.path.isfile(r'%s%s' %(origin_ann_dir, filename)):   # 获取原始xml文件绝对路径,isfile()检测是否为文件 isdir检测是否为目录    origin_ann_path = os.path.join(origin_ann_dir, filename)   # 如果是,获取绝对路径(重复代码)    new_ann_path = os.path.join(new_ann_dir, filename)    tree = ET.parse(origin_ann_path)  # ET是一个xml文件解析库,ET.parse()打开xml文件。parse--"解析"    root = tree.getroot()   # 获取根节点    for object in root.findall('object'):   # 找到根节点下所有“object”节点        name = str(object.find('name').text)  # 找到object节点下name子节点的值(字符串)        # 如果name等于str,则删除该节点        if (name in ["smoke"]):        #   root.remove(object)            pass        # 如果name等于str,则修改name        else:            object.find('name').text = "smoke"        tree.write(new_ann_path)#tree为文件,write写入新的文件中。        print("OK1")
登录后复制    由于在上述数据处理过程中我们产生了很多冗余的文件,故需将其删除。并将其更改为适合PaddleX的数据集格式。In [57]
!rm -rf dataset/Annotations!rm -rf dataset/Annotations1!rm -rf dataset/Annotations2!mv dataset/Annotations3 dataset/Annotations!mv dataset/images dataset/JPEGImages
登录后复制    

在原始数据集中,存在.webp文件和.xml文件匹配不对等的情况,这里我们根据.webp文件名删除了在Annotations文件夹中无法匹配的.xml文件,使得.webp和.xml能够一一对应。

In [59]
import osimport shutilpath_annotations = 'dataset/Annotations'path_JPEGImage = 'dataset/JPEGImages'xml_path = os.listdir(path_annotations)jpg_path = os.listdir(path_JPEGImage)for i in jpg_path:    a = i.split('.')[0] + '.xml'    if a in xml_path:        pass    else:        print(i)        os.remove(os.path.join(path_JPEGImage,i))
登录后复制    

因为懒(有现成的为啥还要自己写呢~),所以就用了PaddleX 自带的划分数据集的命令,这里我们训练集、验证集、测试集的比例为7:2:1。

In [60]
!paddlex --split_dataset --format VOC --dataset_dir /home/aistudio/dataset/ --val_value 0.2 --test_value 0.1
登录后复制登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impDataset Split Done.Train samples: 3403Eval samples: 972Test samples: 486Split files saved in /home/aistudio/dataset/
登录后复制        

  当然,从一般情况来说,这一步完成之后就可以进行模型训练了。但其实在实际过程中,若进行模型训练,在训练过程中会报错。具体报错,大家感兴趣的可以实地体验一下(嘿嘿嘿)。这里就需要用到我们在开头所提到的check.py文件。执行以下命令,会输出图片读取有误的图片路径。我们用rm -rf命令将其与其对应的.xml文件删除。

In [61]
%cd dataset/!cat train_list.txt | python check.py!cat test_list.txt | python check.py!cat val_list.txt | python check.py
登录后复制        
/home/aistudio/datasetWrong img file: JPEGImages/790_strawberry.webpWrong img file: JPEGImages/791_strawberry.webpWrong img file: JPEGImages/000143.webpWrong img file: JPEGImages/000144.webpWrong img file: JPEGImages/000120.webpWrong img file: JPEGImages/780_strawberry.webpWrong img file: JPEGImages/845_strawberry.webpWrong img file: JPEGImages/smoke132.webpCorrupt JPEG data: 1 extraneous bytes before marker 0xdbWrong img file: JPEGImages/000325.webpWrong img file: JPEGImages/000193.webp
登录后复制        In [62]
!rm -rf JPEGImages/000120.webp!rm -rf JPEGImages/000143.webp!rm -rf JPEGImages/791_strawberry.webp!rm -rf JPEGImages/smoke132.webp!rm -rf JPEGImages/780_strawberry.webp!rm -rf JPEGImages/000193.webp!rm -rf JPEGImages/845_strawberry.webp!rm -rf JPEGImages/000325.webp!rm -rf JPEGImages/000144.webp!rm -rf JPEGImages/790_strawberry.webp!rm -rf Annotations/000120.xml!rm -rf Annotations/000143.xml!rm -rf Annotations/791_strawberry.xml!rm -rf Annotations/smoke132.xml!rm -rf Annotations/780_strawberry.xml!rm -rf Annotations/000193.xml!rm -rf Annotations/845_strawberry.xml!rm -rf Annotations/000325.xml!rm -rf Annotations/000144.xml!rm -rf Annotations/790_strawberry.xml
登录后复制    

并且删除之前生成的几个关于数据集的文本文件,重新执行PaddleX划分数据集的命令。

In [63]
!rm -rf val_list.txt!rm -rf train_list.txt!rm -rf test_list.txt!rm -rf labels.txt
登录后复制    In [64]
!paddlex --split_dataset --format VOC --dataset_dir /home/aistudio/dataset/ --val_value 0.2 --test_value 0.1
登录后复制登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/setuptools/depends.py:2: DeprecationWarning: the imp module is deprecated in favour of importlib; see the module's documentation for alternative uses  import impDataset Split Done.Train samples: 3396Eval samples: 970Test samples: 485Split files saved in /home/aistudio/dataset/
登录后复制        In [25]
%cd /home/aistudio/
登录后复制        
/home/aistudio
登录后复制        

模型训练

  在使用PaddleX进行模型训练的过程中,我们使用目前PaddleX适配精度最高的PPYolo模型进行训练。其模型较大,预测速度比YOLOv3-DarkNet53更快,适用于服务端。大家也可以更改其他模型尝试一下。这里我训练了大概300个epoch(别问,问就是没算力了也懒得续点了……)其中第277个epoch效果最佳,map大概在76。(有算力的童鞋可以试着调参或者继续往下面去试试)

In [27]
import osos.environ['CUDA_VISIBLE_DEVICES'] = '0'from paddlex.det import transformsimport paddlex as pdx# 定义训练和验证时的transforms# API说明 https://paddlex.readthedocs.io/zh_CN/develop/apis/transforms/det_transforms.htmltrain_transforms = transforms.Compose([    transforms.MixupImage(mixup_epoch=250), transforms.RandomDistort(),    transforms.RandomExpand(), transforms.RandomCrop(), transforms.Resize(        target_size=608, interp='RANDOM'), transforms.RandomHorizontalFlip(),    transforms.Normalize()])eval_transforms = transforms.Compose([    transforms.Resize(        target_size=608, interp='CUBIC'), transforms.Normalize()])# 定义训练和验证所用的数据集# API说明:https://paddlex.readthedocs.io/zh_CN/develop/apis/datasets.html#paddlex-datasets-vocdetectiontrain_dataset = pdx.datasets.VOCDetection(    data_dir='/home/aistudio/dataset',    file_list='/home/aistudio/dataset/train_list.txt',    label_list='/home/aistudio/dataset/labels.txt',    transforms=train_transforms,    parallel_method='thread',    shuffle=True)eval_dataset = pdx.datasets.VOCDetection(    data_dir='/home/aistudio/dataset',    file_list='/home/aistudio/dataset/val_list.txt',    label_list='/home/aistudio/dataset/labels.txt',    parallel_method='thread',    transforms=eval_transforms)# 初始化模型,并进行训练# 可使用VisualDL查看训练指标,参考https://paddlex.readthedocs.io/zh_CN/develop/train/visualdl.htmlnum_classes = len(train_dataset.labels)# API说明: https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#paddlex-det-ppyolomodel = pdx.det.PPYOLO(num_classes=num_classes)# API说明: https://paddlex.readthedocs.io/zh_CN/develop/apis/models/detection.html#train# 各参数介绍与调整说明:https://paddlex.readthedocs.io/zh_CN/develop/appendix/parameters.htmlmodel.train(    num_epochs=540,    train_dataset=train_dataset,    train_batch_size=8,    eval_dataset=eval_dataset,    learning_rate=0.000125,    save_interval_epochs=1,    lr_decay_epochs=[270,320, 480],    save_dir='output/ppyolo',    use_vdl=True)
登录后复制    

模型导出

  这里我们将训练过程中保存的模型导出为inference格式模型,其原因在于:PaddlePaddle框架保存的权重文件分为两种:支持前向推理和反向梯度的训练模型 和 只支持前向推理的推理模型。二者的区别是推理模型针对推理速度和显存做了优化,裁剪了一些只在训练过程中才需要的tensor,降低显存占用,并进行了一些类似层融合,kernel选择的速度优化。而导出的inference格式模型包括__model__、__params__和model.yml三个文件,分别表示模型的网络结构、模型权重和模型的配置文件(包括数据预处理参数等)。

In [ ]
!paddlex --export_inference --model_dir=PaddleDetection/output/ppyolo/epoch_277 --save_dir=./inference_model
登录后复制    

简单部署尝试

  下面我们简单地部署体验了一番。这里打开了设备摄像头进行视频流预测,并设置了在阈值>=0.3的时候会播放“公共场所,禁止吸烟!”

  在本项目中可以看到存在“cigarette.mp3”和“dad.mp3”的音频文件。“dad.mp3”的具体内容这里卖个关子。大家下载下来体验一下就知道了hhh。

  而这里的音频,使用的是百度大脑的语音合成API,具体的大家可以去百度大脑正式看看,在本项目中就不予展示了。

In [ ]
import cv2import paddlex as pdxfrom playsound import playsound# 修改模型所在位置predictor = pdx.deploy.Predictor('D:\project\python\cigarette\inference_model')cap = cv2.VideoCapture(0)while cap.isOpened():    ret, frame = cap.read()    if ret:        result = predictor.predict(frame)        score = result[0]['score']        if score >= 0.3:            print("*"*100)            # 修改音频所在位置            playsound('D:\project\python\cigarette\cigarette.mp3')        # print(result)        vis_img = pdx.det.visualize(frame, result, threshold=0.6, save_dir=None)        cv2.imshow('cigarette', vis_img)        if cv2.waitKey(1) & 0xFF == ord('q'):            break    else:        breakcap.release()
登录后复制    
来源:https://www.php.cn/faq/1422401.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

Pywinrm,一个 Python 管理利器!
科技数码
Pywinrm,一个 Python 管理利器!

Pywinrm 通过Windows远程管理(WinRM)协议,让Python能够像操作本地一样执行远程Windows命令,真正打通了跨平台管理的最后一公里。 在混合IT环境中,Linux机器管理Wi

热心网友
04.07
全网炸了!5亿人用的Axios竟被投毒,你的密钥还保得住吗?
科技数码
全网炸了!5亿人用的Axios竟被投毒,你的密钥还保得住吗?

早些时候,聊过 Python 领域那场惊心动魄的供应链攻击。当时我就感叹,虽然我们 JavaScript 开发者对这类套路烂熟于心,但亲眼目睹这种规模的“投毒”还是头一次。 早些时候,聊过 Pyth

热心网友
04.07
Toga,一个超精简的 Python 项目!
科技数码
Toga,一个超精简的 Python 项目!

Toga 是 BeeWare 家族的核心成员,号称“写一次,跑遍所有平台”,而且用的是系统原生控件,不是那种一看就是网页套壳的界面 。 写了这么多年 Python,你是不是也想过:要是能一套代码跑

热心网友
04.07
Python 异常处理:别再用裸奔的 try 了
科技数码
Python 异常处理:别再用裸奔的 try 了

异常处理的核心:让错误在正确的地方被有效处理。正确的地方,就是别在底层就把异常吞了,也别在顶层还抛裸奔的 Exception。 异常处理写得好,半夜不用起来改 bug。1 你是不是也这么干过?tr

热心网友
04.07
OpenClaw如何自定义SKILL
AI
OpenClaw如何自定义SKILL

1 Skills机制概述 提起OpenClaw的Skills机制,不少人可能会把它想象成传统意义上的可执行插件。其实,它的内涵要更精妙一些。 简单说,Skills本质上是一套基于提示驱动的能力扩展机制。它并不是一个可以独立“跑”起来的程序模块,而是通过一份结构化描述文件(核心就是那个SKILL m

热心网友
04.07

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查
web3.0
美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查

加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这

热心网友
04.08
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币
web3.0
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币

微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿

热心网友
04.08
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch
web3.0
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch

稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D

热心网友
04.08
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线
web3.0
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线

基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一

热心网友
04.08
PAAL代币如何参与治理?社区投票能决定哪些事项?
web3.0
PAAL代币如何参与治理?社区投票能决定哪些事项?

PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票

热心网友
04.08