PaddleRS:无人机汽车识别
该项目基于PaddleRS,利用0.05米分辨率的DFC2018 Houston数据集超高分辨率影像,裁剪出1400张图块并标注汽车,按9:1划分训练集和验证集。通过定义数据增强和数据集,使用PPYOLOv2模型训练,借助VDL查看效果,评估得较高map,最后实现模型预测及可视化。

PaddleRS:无人机汽车识别
基于0.5m的高分辨率无人机影像,我们希望能够使用目标检测的方法找到影像中的汽车。项目将基于PaddleRS完成该任务。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
1 数据准备
数据来自于DFC2018 Houston,DFC2018 Houston 是2018年IEEE GRSS Data Fusion 比赛所用的数据集。这个数据是由 University of Houston Dr. Saurabh Prasad 的实验室制作公开的。这个数据是个多传感器数据,包含了48个波段的高光谱数据(1米),3波段的LiDAR数据(0.5米),以及超高分辨率影像(0.05米)。这个数据包含了20类地物。
只取用了其中0.05米分辨率的超高分辨率影像,裁剪为1400张596x601大小的图块,由手工标注汽车的矩形框,按照9:1划分训练集和数据集。
In [1]# 解压数据集! mkdir -p dataset! unzip -oq data/data56250/carDetection_RGB.zip -d dataset登录后复制 In [2]
# 划分数据集import osimport os.path as ospimport randomdef get_data_list(data_dir): random.seed(666) mode = ["train_list", "val_list"] dir_path = osp.join(data_dir, "JPEGImages") files = [f.split(".")[0] for f in os.listdir(dir_path)] random.shuffle(files) # 打乱顺序 with open(osp.join(data_dir, f"{mode[0]}.txt"), "w") as f_tr: with open(osp.join(data_dir, f"{mode[1]}.txt"), "w") as f_va: for i, name in enumerate(files): if (i % 10) == 0: # 训练集与测试集为9:1 f_va.write(f"JPEGImages/{name}.webp Annotations/{name}.xml\n") else: f_tr.write(f"JPEGImages/{name}.webp Annotations/{name}.xml\n") labels = ["car"] txt_str = "\n".join(labels) with open((data_dir + "/" + f"label_list.txt"), "w") as f: f.write(txt_str) print("Finished!")get_data_list("dataset")登录后复制 Finished!登录后复制
2 PaddleRS准备
PaddleRS是基于飞桨开发的遥感处理平台,支持遥感图像分类,目标检测,图像分割,以及变化检测等常用遥感任务,帮助开发者更便捷地完成从训练到部署全流程遥感深度学习应用。
github:https://github.com/PaddlePaddle/PaddleRS
接下来可以通过git clone得到PaddleRS。
In [7]! git clone https://github.com/PaddlePaddle/PaddleRS.git%cd PaddleRS! git checkout release/1.0! pip install --upgrade pip! pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple! python setup.py install%cd ..登录后复制
3 模型训练
PaddleRS借鉴PaddleSeg的API设计模式并进行了较高程度的封装,可以方便的完成数据、模型等的定义,快速开始模型的训练迭代。
3.1 数据定义
主要通过datasets和transforms两个组件完成任务,datasets中有包含分割检测分类等多任务的数据加载API,而transforms集成了大部分通用或单独的数据增强API,目前可以通过源码查看。
In [2]import osimport os.path as ospfrom paddlers.datasets import VOCDetDataset from paddlers import transforms as T# 定义数据增强train_transforms = T.Compose([ T.DecodeImg(), T.RandomDistort(), T.RandomCrop(), T.RandomHorizontalFlip(), T.BatchRandomResize( target_sizes=[512, 544, 576, 608, 640, 672, 704], interp='RANDOM'), T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('train')])eval_transforms = T.Compose([ T.DecodeImg(), T.Resize(target_size=608, interp='CUBIC'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('eval')])# 定义数据集data_dir = "dataset"train_file_list = osp.join(data_dir, 'train_list.txt')val_file_list = osp.join(data_dir, 'val_list.txt')label_file_list = osp.join(data_dir, 'label_list.txt')train_dataset = VOCDetDataset( data_dir=data_dir, file_list=train_file_list, label_list=label_file_list, transforms=train_transforms, shuffle=True)eval_dataset = VOCDetDataset( data_dir=data_dir, file_list=train_file_list, label_list=label_file_list, transforms=eval_transforms, shuffle=False)登录后复制 2024-03-08 18:57:32 [INFO]Starting to read file list from dataset...2024-03-08 18:57:39 [INFO]944 samples in file dataset/train_list.txt, including 944 positive samples and 0 negative samples.creating index...index created!2024-03-08 18:57:39 [INFO]Starting to read file list from dataset...2024-03-08 18:57:47 [INFO]944 samples in file dataset/train_list.txt, including 944 positive samples and 0 negative samples.creating index...index created!登录后复制 In [5]
# 检查及可视化数据import numpy as npimport cv2import matplotlib.pyplot as plt%matplotlib inline# 反归一化def in_normal(img): mean = np.array([0.485, 0.456, 0.406]) std = np.array([0.229, 0.224, 0.225]) img = (255 * (img * std + mean)).astype("uint8") return img# 绘制矩形框def visual(img, bboxs): for bbox in bboxs: x1, y1, x2, y2 = bbox cv2.rectangle(img, (x1, y1), (x2, y2), (255, 0, 0), 2) return imgfor data in train_dataset: img = in_normal(data["image"]) vis = visual(img, data["gt_bbox"]) plt.figure(figsize=(10, 10)) plt.imshow(img) plt.show() break登录后复制 登录后复制登录后复制
3.2 模型准备
PaddleRS将模型分别放置于models和custom_models中,分别包含了Paddle四大套件的模型结构以及与遥感、变化检测等相关的模型结构。通过tasks进行了模型的封装,集成了Loss、Opt、Metrics等,可根据需要进行修改。这里以默认的PPYOLOv2为例。
In [7]from paddlers.tasks.object_detector import PPYOLOv2num_classes = len(train_dataset.labels)model = PPYOLOv2(num_classes=num_classes)登录后复制 In [ ]
model.train( num_epochs=30, train_dataset=train_dataset, train_batch_size=16, eval_dataset=eval_dataset, pretrain_weights="COCO", learning_rate=3e-5, warmup_steps=10, warmup_start_lr=0.0, save_interval_epochs=5, lr_decay_epochs=[10, 20], save_dir="output", use_vdl=True)登录后复制
训练的效果可以通过VDL进行查看。
from paddlers.tasks import load_modelnew_model = load_model("output/best_model")登录后复制 2024-03-08 19:28:24 [INFO]Model[PPYOLOv2] loaded.登录后复制
4 模型评估
只需要调用evaluate即可完成预测。可以看到map还是挺高的。
In [10]new_model.evaluate(eval_dataset)登录后复制
2024-03-08 19:28:32 [INFO]Start to evaluate(total_samples=944, total_steps=944)...2024-03-08 19:29:17 [INFO]Accumulating evaluatation results...登录后复制
OrderedDict([('bbox_map', 90.35561807270788)])登录后复制 5 模型预测
PaddleRS的目标检测task可以方便的给出坐标、类别和分数,可供自行进行一些后处理。也可以直接使用visualize_detection进行可视化。下面对一张测试图像进行预测并可视化。
In [11]from paddlers.tasks.utils.visualize import visualize_detectionimport matplotlib.pyplot as plt%matplotlib inlinetest_transforms = T.Compose([ T.DecodeImg(), T.Resize(target_size=608, interp='CUBIC'), T.Normalize( mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), T.ArrangeDetector('test')])img_path = "dataset/JPEGImages/UH_NAD83_272056_3289689_58.webp"pred = new_model.predict(img_path, test_transforms)vis_img = visualize_detection(img_path, pred, save_dir=None)plt.figure(figsize=(10, 10))plt.imshow(vis_img)plt.show()登录后复制 登录后复制登录后复制
相关攻略
Pywinrm 通过Windows远程管理(WinRM)协议,让Python能够像操作本地一样执行远程Windows命令,真正打通了跨平台管理的最后一公里。 在混合IT环境中,Linux机器管理Wi
早些时候,聊过 Python 领域那场惊心动魄的供应链攻击。当时我就感叹,虽然我们 JavaScript 开发者对这类套路烂熟于心,但亲眼目睹这种规模的“投毒”还是头一次。 早些时候,聊过 Pyth
Toga 是 BeeWare 家族的核心成员,号称“写一次,跑遍所有平台”,而且用的是系统原生控件,不是那种一看就是网页套壳的界面 。 写了这么多年 Python,你是不是也想过:要是能一套代码跑
异常处理的核心:让错误在正确的地方被有效处理。正确的地方,就是别在底层就把异常吞了,也别在顶层还抛裸奔的 Exception。 异常处理写得好,半夜不用起来改 bug。1 你是不是也这么干过?tr
1 Skills机制概述 提起OpenClaw的Skills机制,不少人可能会把它想象成传统意义上的可执行插件。其实,它的内涵要更精妙一些。 简单说,Skills本质上是一套基于提示驱动的能力扩展机制。它并不是一个可以独立“跑”起来的程序模块,而是通过一份结构化描述文件(核心就是那个SKILL m
热门专题
热门推荐
加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这
微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票





