时间:2025-07-22 作者:游乐小编
本文围绕遥感变化检测项目展开,参考多个相关项目,指出存在随机bug及解决办法。其在相同训练轮数下精度提升明显,还分享了调参思路,涉及数据集、模型、训练超参、后处理等方面。此外,详述了数据预处理、网络训练、测试、推理等流程,并附相关报错及统计数据。
本项目实现参考了以下项目,
【最新】第十一届 “中国软件杯”百度遥感赛项:变化检测功能;昇腾杯-变化检测赛道复赛方案分享——PaddleCD;PaddleRS;PaddleSegPaddleRS版的baseline(以下简称原bl),个人测试精度为0.768,同样的配置在本项目PaddleCD下,个人测试精度则为0.764
该项目存在随机bug,暂时不知道原因以及彻底解决方法;如果出现特定报错内容(详见文末附录1),重启后重新执行代码一般可以解决;建议在理解代码的情况下,尝试在PaddleRS中修改运行
该项目在与原bl相同训练轮数下,bit单模精度达到0.86221,训练日志手动保存在model_log/bit_hr18.txt中;按照调参思路进行调整,bit单模精度可以达到0.889+;
感谢 @古代飞 大佬的baseline, 感谢@开着奔驰种地、@我不是南通 以及群内各位大佬的经验分享
为方便阅读,以下内容中提到的xx%为调参涨点,是使用trick后提交分数的百分比变化
但因个人实验记录不完善、实验内容过多未完全控制变量 以及 某些玄学问题,以下调参涨点可能存在误差,仅供参考
A、B时相的训练集、测试集、全集的均值标准差统计如下(因显示问题采用图片格式,文字格式详见文末附录2):
由统计数据可见:A、B时相的均值标准差存在较大差异,但训练集与验证集差异较小
针对光谱差异问题,尝试了3种解决方案:
RandomDistort登录后复制
训练集共637共1024*1024样本,测试集共363个1024*1024样本,训练测试比约2:1
原bl中,针对该问题的解决方案是从原始样本中随机裁剪部分区域并resize为256*256。
个人尝试了2种方法:
经过统计,背景与变化类别的像素占比为95.3:4.6,类别严重不均衡,并且变化类别仅在573个样本中存在(统计数据见附录2)
针对上述问题,可以采用以下解决方案:
在CV下游任务中,任务精度往往与backbone的特征表达能力有关,原bl中的backbone为resnet18,结构较为简单 针对该问题,采用以下解决方案:
采用同构高级模型resnet34,-0.2%resnet50,-1%采用异构高级模型hrnet18,+2%resnet18-->hrnet18登录后复制
可以修改以下超参数:
epoch/step,原bl中的训练数较少,通过增加训练数可以显著提分,可以提升的上限与其他超参相关,但建议总体训练时长不超过12h学习率:lr/起始学习率,原bl的起始学习率略高,导致一些无效训练时长,略微降低lr后可以快速收敛至较高精度的区间lr_scheduler/学习率调度器,原bl采用的是等间隔固定比例衰减,尝试过poly衰减策略,效果并不明显,可以尝试不同衰减策略,增加warmup等optimizer/优化器,原bl使用adam,目前较为流行的有adamw、sgd、adamax等,可以尝试使用batch_size/批处理数,一般来说较大batch size会使得收敛较快,但在充分收敛的前提下对总体精度并无较大影响transform/数据增强策略:RandomCrop, 增大crop的尺寸,每次输入到网络中更大的图,往往会增加精度RandomFlipOrRotation,除了Flip进行增强外,还可以通过Rotation的方式进行增强RandoBlur,通过滤波平滑进行数据增强RandomSwap,通过交换AB时相影像进行增强more steplr = 0.0004adamw optimizer RandomCrop 384RandomFlipOrRotationRandoBlurRandomSwap登录后复制
后处理有多种方式,针对训练时采用的数据增强策略,可以采用以下方案:
针对输出结果,有以下方案:
5. 调整阈值/缩放logit值,目的在于识别出更多概率值较小的变化区域
6. 形态学后处理,优化边缘区域
后处理的提升幅度较小且不稳定,一般最后使用
综上,最终在原bl上进行以下修改:
flip预测缩放logit值形态学后处理登录后复制
即 将一个模型的不同结果进行集成
在后处理中使用的flip预测、ms预测属于单模集成的内容
ema、swa等也属于单模集成内容,其主要思路为将不同epoch得到的较好的模型参数进行集成
k折交叉验证,将数据集均分为k份,每次将其中一份作为验证集其余为训练集进行训练
本次竞赛并未使用上述单模集成内容,但据以往经验看,上述内容有一定的提分作用
即 将多个模型的不同结果进行集成
包括硬投票集成和软投票集成,区别在于使用预测的类别结果还是类别得分进行集成
经验表明不同架构的模型相互集成,得分较高
如cutmix、mixup、cutout、mosaic、copypaste等等长得很像的、涉及多个样本之间的数据增强,据说也有效果,目前原bl和本项目暂不支持该系列操作
本次比赛不支持增加数据集;
在其他任务中可以尝试加入未标注的图像,生成伪标签进行监督/自监督
2021-11-05 11:52
手游攻略2021-11-19 18:38
手游攻略2021-10-31 23:18
手游攻略2022-06-03 14:46
游戏资讯2025-06-28 12:37
单机攻略