时间:2025-07-24 作者:游乐小编
FSACOCO数据集由北理工无人驾驶方程式车队搭建,用于中国大学生无人驾驶赛事视觉部分,含42张带标注的红蓝锥桶图像。介绍了两种基于飞桨的训练方式:PaddleDetection需克隆仓库、改参数等,PPYOLO v2训练后mAP50达99.01%;PaddleX则通过低代码完成全流程。两者均涉及模型导出与部署,可参考BITFSD开源3.0。
FSACOCO 数据集由 北京理工大学无人驾驶方程式车队 进行搭建并维护,致力于中国大学生无人驾驶方程式赛事中视觉部分的应用,该项赛事使用红蓝锥桶代表赛道边界,参赛队伍需要在未知地图的条件下得到最快圈时,同类数据集可参考FSOCO ,由苏黎世联邦理工学院AMZ车队进行维护,为德国大学生无人驾驶方程式大赛视觉部分数据集。
此项目作为北京理工大学无人驾驶方程式车队FSD开源3.0中目标检测模块进行展示
数据集格式:
-dataset_sample
|-Annotations
|-0.xml
|-1.xml
|-10.xml
|-...
|-JPEGImage
|-0.jpg
|-1.jpg
|-10.jpg
|-...
|-eval.txt
|-labels.txt
|-train.txt
注: 此处仅提供42张数据
更多数据集可以前往https://github.com/bitfsd/FSACOCO获取
!unzip data/data126556/dataset_sample.zip -d ./dataset_sample登录后复制
PaddleDetection为基于飞桨PaddlePaddle的端到端目标检测套件,提供多种主流目标检测、实例分割、跟踪、关键点检测算法,配置化的网络模块组件、数据增强策略、损失函数等,推出多种服务器端和移动端工业级SOTA模型,并集成了模型压缩和跨平台高性能部署能力,帮助开发者更快更好完成端到端全开发流程。
模型性能概览
各模型结构和骨干网络的代表模型在COCO数据集上精度mAP和单卡Tesla V100上预测速度(FPS)对比图。
由于原始仓库为github链接,下载较慢,可以更换为gitee链接
In [ ]!git clone https://gitee.com/Feng1909/PaddleDetection.git登录后复制
!pip install -r PaddleDetection/requirements.txt登录后复制
以训练PPYOLO v2为例
同理可以训练所有PaddleDetection支持的模型
修改为以下路径
metric: VOCmap_type: 11pointnum_classes: 3TrainDataset: !VOCDataSet dataset_dir: ./ anno_path: ./dataset_sample/train.txt label_list: ./dataset_sample/labels.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']EvalDataset: !VOCDataSet dataset_dir: ./ anno_path: ./dataset_sample/eval.txt label_list: ./dataset_sample/labels.txt data_fields: ['image', 'gt_bbox', 'gt_class', 'difficult']TestDataset: !ImageFolder anno_path: ./dataset_sample/labels.txt登录后复制
# 从头开始训练,大约需要30分钟# bbox mAP50能达到99.01%!python PaddleDetection/tools/train.py -c PaddleDetection/configs/ppyolo/ppyolov2_r50vd_dcn_voc.yml --use_vdl=true --eval# 中途中断,继续训练,更改output/ppyolov2_r50vd_dcn_voc/248.pdparams为中断前的模型参数# !python PaddleDetection/tools/train.py -c PaddleDetection/configs/ppyolo/ppyolov2_r50vd_dcn_voc.yml -r output/ppyolov2_r50vd_dcn_voc/248.pdparams --use_vdl=true --eval登录后复制
若需使用TensorRT进行加速,则TestReader.inputs_def.image_shape为必需项目
In [ ]!python PaddleDetection/tools/export_model.py -c PaddleDetection/configs/ppyolo/ppyolov2_r50vd_dcn_voc.yml --output_dir=./inference_model \ -o weights=output/ppyolov2_r50vd_dcn_voc/best_model # TestReader.inputs_def.image_shape=[3,640,640]登录后复制
参见BITFSD开源3.0
PaddleX 集成飞桨智能视觉领域图像分类、目标检测、语义分割、实例分割任务能力,将深度学习开发全流程从数据准备、模型训练与优化到多端部署端到端打通,并提供统一任务API接口及图形化开发界面Demo。开发者无需分别安装不同套件,以低代码的形式即可快速完成飞桨全流程开发。
!pip install paddlex==2.1登录后复制
# 设置使用0号GPU卡(如无GPU,执行此代码后仍然会使用CPU训练模型)import matplotlibmatplotlib.use('Agg') import osos.environ['CUDA_VISIBLE_DEVICES'] = '0'import paddlex as pdx登录后复制
from paddlex import transforms as Ttrain_transforms = T.Compose([ T.MixupImage(mixup_epoch=-1), T.RandomDistort(), T.RandomExpand(im_padding_value=[123.675, 116.28, 103.53]), T.RandomCrop(), T.RandomHorizontalFlip(), T.BatchRandomResize( target_sizes=[192, 224, 256, 288, 320, 352, 384, 416, 448, 480, 512], interp='RANDOM'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])eval_transforms = T.Compose([ T.Resize( target_size=320, interp='CUBIC'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])])登录后复制
import paddlex as pdxtrain_dataset = pdx.datasets.VOCDetection( data_dir='dataset_sample', file_list='dataset_sample/train.txt', label_list='dataset_sample/labels.txt', transforms=train_transforms, shuffle=True)eval_dataset = pdx.datasets.VOCDetection( data_dir='dataset_sample', file_list='dataset_sample/eval.txt', label_list='dataset_sample/labels.txt', transforms=eval_transforms)登录后复制
num_classes = len(train_dataset.labels)# model = pdx.det.YOLOv3(num_classes=num_classes)# model = pdx.det.PPYOLO(num_classes=num_classes)model = pdx.det.PPYOLOv2(num_classes=num_classes)model.train( num_epochs=550, train_dataset=train_dataset, train_batch_size=24, eval_dataset=eval_dataset, pretrain_weights=None, learning_rate=0.000125, warmup_steps=100, warmup_start_lr=0.0, lr_decay_epochs=[130, 540], lr_decay_gamma=.5, early_stop=True, save_interval_epochs=20, save_dir='output/ppyolov2', # resume_checkpoint='output/yolov3/epoch_430', use_vdl=True)登录后复制
若需使用TensorRT加速,则--fixed_input_shape为必需项
In [ ]!paddlex --export_inference --model_dir=./output/ppyolov2/best_model/ \ --save_dir=./inference_model # --fixed_input_shape=[224,224]登录后复制
参见BITFSD开源3.0
2021-11-05 11:52
手游攻略2021-11-19 18:38
手游攻略2021-10-31 23:18
手游攻略2022-06-03 14:46
游戏资讯2025-06-28 12:37
单机攻略