Coding-Party 基于飞桨的农作物智能识别系统
基于深度学习的病虫害检测方法不仅具有重要的学术研究价值,而且具有非常广阔的市场应用前景。其次轻量化模型的构建需要成为未来研究考虑的重要组成部分,使得农作物病害智能识别可以

项目背景
lian合国粮食及农业组织最近的一份报告表明,每年农业生产的自然损失中有三分之一以上是由农业病虫害造成的。需要考虑的农业病虫害众多,依赖于实验室观察和实验的传统方法很容易导致错误的诊断。为加快转变农业发展方式,农业部组织开展农作物病虫害专业化统防统治与绿色防控融合推进,逐步实现农作物病虫害全程绿色防控的规模化实施、规范化作业。融合推进可以有效提升病虫害防治的组织化程度和科学化水平,是实现病虫综合治理、农药减量控害的重要内容,也是转变农业发展方式、实现提质增效的重大举措。在保障防治效果的同时,农产品质量符合食品安全国家标准,生态环境及生物多样性有所改善。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
项目目的
农作物只要是出现病虫害问题,不仅仅会给人们的生活和环境产生非常严重的影响,也会给农民的收入造成不利的影响。 在广大农村地区大部分农民都会首选传统农药方式来进行病虫害防治:
对于病虫害防治意识比较差;
应用传统农药防治不符合实际情况,如药量不合理、周期不合理等。不但没有有效的防治,而且给农作物造成比较大的伤害,同时也出现严重的环境污染的问题。最终就造成了农作物病害防治的效果极差,使得农作物无法正常的生长。到了最后人工防治难度增大、成本提升,后果严重。
为加快转变农业发展方式,农业部组织开展农作物病虫专业化统防统治与绿色防控融合推进,逐步实现农作物病虫害全程绿色防控的规模化实施、规范化作业。融合推进可以有效提升病虫害防治的组织化程度和科学化水平,是实现病虫综合治理、农药减量控害的重要内容,也是转变农业发展方式、实现提质增效的重大举措。在保障防治效果的同时,农产品质量符合食品安全国家标准,生态环境及生物多样性有所改善。 应用深度学习对农作物进行准确的病害识别并推荐合适的防治措施,创造出能为农作物看病的“植物医生”,一定程度上起到综合防治的效果和标准,以更好地消除农作物病害,促进农作物健康的生长,保证农作物的产量。
技术路线图
系统架构图
项目创新点
本作品将基于AI Challenger农作物叶子图像数据集包含10种植物的27种病害,合计61个分类(按“物种-病害-程度”分)的特性同时结合实地采集的数据,主要从以下几个方面考虑改进:
①增加一定的农作物种类与细分粒度 绝大多数能识别出来的病虫害,等能识别出来的时候已经太晚了。比如草莓白粉病,发病初期症状极为不明显(非常薄的白色绒毛状斑点),只有大量白色粉末状真菌长满叶片(或者果实)的时候才能很明显的看到。②优选模型,注重预测精度,增加考虑因素 存在一部分病虫害在发生危害之前根别看不见病/虫原,如植物根部的线虫,藏于叶子后的蚜虫等情况,将监控不局限于图像的分析识别。③追溯预测其患病因素 针对目前世面上的系统只做了简单的识别功能,缺少对病虫害产生原因的分析,本项目将完善与改进这一方向数据集
本研究基于AI Challenger农作物叶子图像数据集包含10种植物(苹果、樱桃、葡萄、柑桔、桃、草莓、番茄、辣椒、玉米、马铃薯)的27种病害(其中24个病害有分一般和严重两种程度),合计61个分类(按“物种-病害-程度”分)的特性,训练图像总数为31718张,测试图像总数为4540张。每张图包含一片农作物的叶子,叶子占据图片主要位置。
网络模型
ResNet通过改变学习目标,即不再学习完整的输出F(x),而是学习残差H(x)−x,解决了传统卷积层或全连接层在进行信息传递时存在的丢失、损耗等问题。通过直接将信息从输入绕道传输到输出,一定程度上保护了信息的完整性。同时,由于学习的目标是残差,简化了学习的难度。
解压数据集
In [ ]#!unzip /home/aistudio/data/data101323/data.zip登录后复制
数据预处理
In [ ]import paddleimport paddle.nn.functional as Fimport numpy as npimport cv2import jsonimport mathimport randomimport osfrom paddle.io import Dataset # 导入Datasrt库filename = "AgriculturalDisease_trainingset/AgriculturalDisease_train_annotations.json"f_open = open(filename)fileJson = json.load(f_open)train_data = []for i in range(len(fileJson)): img1=cv2.imread("AgriculturalDisease_trainingset/images/"+fileJson[i]['image_id']) img2=cv2.resize(img1, (128,128), interpolation=cv2.INTER_AREA)/255 r=[] g=[] b=[] r.append(img2[:, :, 0]) g.append(img2[:, :, 1]) b.append(img2[:, :, 2]) one_data = np.concatenate((r,g,b),axis=0) one_data = paddle.to_tensor(one_data,dtype="float32") train_data.append([one_data,fileJson[i]['disease_class']])filename = "AgriculturalDisease_validationset/AgriculturalDisease_validation_annotations.json"f_open = open(filename)fileJson1 = json.load(f_open)test_data = []for i in range(len(fileJson1)): img1=cv2.imread("AgriculturalDisease_validationset/images/"+fileJson1[i]['image_id']) img2=cv2.resize(img1, (128,128), interpolation=cv2.INTER_AREA)/255 r=[] g=[] b=[] r.append(img2[:, :, 0]) g.append(img2[:, :, 1]) b.append(img2[:, :, 2]) one_data = np.concatenate((r,g,b),axis=0) one_data = paddle.to_tensor(one_data,dtype="float32") test_data.append([one_data,fileJson1[i]['disease_class']])登录后复制 /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:26: DeprecationWarning: `np.int` is a deprecated alias for the builtin `int`. To silence this warning, use `int` by itself. Doing this will not modify any behavior and is safe. When replacing `np.int`, you may wish to use e.g. `np.int64` or `np.int32` to specify the precision. If you wish to review your current use, check the release note link for additional information.Deprecated in NumPy 1.20; for more details and guidance: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecations def convert_to_list(value, n, name, dtype=np.int):登录后复制
数据读取
In [ ]from paddle.static import InputSpecimport paddle.nn.functional as Fprint("-------end readData--------")class MyDataset(Dataset): """ 步骤一:继承paddle.io.Dataset类 """ def __init__(self, mode='train'): """ 步骤二:实现构造函数,定义数据读取方式,划分训练和测试数据集 """ super(MyDataset, self).__init__() if mode == 'train': self.data = train_data else: self.data = test_data def __getitem__(self, index): """ 步骤三:实现__getitem__方法,定义指定index时如何获取数据,并返回单条数据(训练数据,对应的标签) """ data = self.data[index][0] label = self.data[index][1] return data, label def __len__(self): """ 步骤四:实现__len__方法,返回数据集总数目 """ return len(self.data)# s_tra_data,s_tra_label = split_data(train_data,train_label,batch_size=32)# s_tes_data,s_tes_label = split_data(test_data,test_label,batch_size=32)#数据读取train_loader = paddle.io.DataLoader(MyDataset("train"), batch_size=16, shuffle=True)test_loader = paddle.io.DataLoader(MyDataset("test"), batch_size=16, shuffle=True)登录后复制 -------end readData--------登录后复制
定义训练过程
In [ ]epoch_num = 20 #训练轮数batch_size = 16 learning_rate = 0.0001 #学习率val_acc_history = []val_loss_history = []def train(model): print('start training ... ') # turn into training mode model.train() opt = paddle.optimizer.Adam(learning_rate=learning_rate, parameters=model.parameters()) for epoch in range(epoch_num): acc_train = [] for batch_id, data in enumerate(train_loader()): x_data = data[0] y_data = paddle.to_tensor(data[1],dtype="int64") y_data = paddle.unsqueeze(y_data, 1) logits = model(x_data) loss = F.cross_entropy(logits, y_data) acc = paddle.metric.accuracy(logits, y_data) acc_train.append(acc.numpy()) if batch_id % 200 == 0 and batch_id != 0: print("epoch: {}, batch_id: {}, loss is: {}".format(epoch, batch_id, loss.numpy())) avg_acc = np.mean(acc_train) print("[train] accuracy: {}".format(avg_acc)) loss.backward() opt.step() opt.clear_grad() # evaluate model after one epoch model.eval() accuracies = [] losses = [] for batch_id, data in enumerate(test_loader()): x_data = data[0] y_data = paddle.to_tensor(data[1],dtype="int64") y_data = paddle.unsqueeze(y_data, 1) logits = model(x_data) loss = F.cross_entropy(logits, y_data) acc = paddle.metric.accuracy(logits, y_data) accuracies.append(acc.numpy()) losses.append(loss.numpy()) avg_acc, avg_loss = np.mean(accuracies), np.mean(losses) print("[test] accuracy/loss: {}/{}".format(avg_acc, avg_loss)) val_acc_history.append(avg_acc) val_loss_history.append(avg_loss) model.train()登录后复制 开始训练
In [4]model = paddle.vision.models.resnet152(pretrained=True,num_classes=61)train(model) path = "save_model"paddle.jit.save(model, path,input_spec=[InputSpec(shape=[16,3,128,128], dtype='float32')])登录后复制
作品前端实现
前端功能结构图
系统主界面
病虫查询界面
病害识别结果
常见病害查询
相关攻略
Pywinrm 通过Windows远程管理(WinRM)协议,让Python能够像操作本地一样执行远程Windows命令,真正打通了跨平台管理的最后一公里。 在混合IT环境中,Linux机器管理Wi
早些时候,聊过 Python 领域那场惊心动魄的供应链攻击。当时我就感叹,虽然我们 JavaScript 开发者对这类套路烂熟于心,但亲眼目睹这种规模的“投毒”还是头一次。 早些时候,聊过 Pyth
Toga 是 BeeWare 家族的核心成员,号称“写一次,跑遍所有平台”,而且用的是系统原生控件,不是那种一看就是网页套壳的界面 。 写了这么多年 Python,你是不是也想过:要是能一套代码跑
异常处理的核心:让错误在正确的地方被有效处理。正确的地方,就是别在底层就把异常吞了,也别在顶层还抛裸奔的 Exception。 异常处理写得好,半夜不用起来改 bug。1 你是不是也这么干过?tr
1 Skills机制概述 提起OpenClaw的Skills机制,不少人可能会把它想象成传统意义上的可执行插件。其实,它的内涵要更精妙一些。 简单说,Skills本质上是一套基于提示驱动的能力扩展机制。它并不是一个可以独立“跑”起来的程序模块,而是通过一份结构化描述文件(核心就是那个SKILL m
热门专题
热门推荐
加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这
微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票





