首页 游戏 软件 资讯 排行榜 专题
首页
AI
Paddle.Hub 初探:快速基于预训练模型实现猫的 12 分类

Paddle.Hub 初探:快速基于预训练模型实现猫的 12 分类

热心网友
22
转载
2025-07-24
本文介绍Paddle 2.1.0版本新功能Paddle.Hub API,可快速加载外部扩展模型。以用PaddleClas预训练模型实现猫的12分类为例,演示同步代码、加载模型列表与模型、预处理数据、训练模型及预测的过程,还提及该版本存在的一些问题。

paddle.hub 初探:快速基于预训练模型实现猫的 12 分类 - 游乐网

引入

Paddle 最近更新到了 2.1.0 版本了其中加入了一个新功能,即 Paddle.Hub API通过这个新功能,可以快速加载外部的拓展模型,比如加载 PaddleClas 中丰富的分类预训练模型今天就通过这个项目来体验一下这个功能,使用 PaddleClas 中的预训练模型实现极简版的猫的 12 分类

Paddle.Hub

最新文档:直达链接

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

API 简介:

使用介绍:简单讲这就是个可以快速调用外部扩展模型的 API只需要将模型的代码托管在 GitHub 或 Gitee 平台上或者存储在本地就可以通过这个 API 进行调用,方便开发者分享模型代码供其他人快速使用

快速使用

因为 GitHub 访问速度比较慢的缘故暂时使用本地加载的方式来演示,所以需要预先同步 repo 的代码至本地后进行使用In [ ]
# 同步 PaddleClas 代码!git clone https://gitee.com/PaddlePaddle/PaddleClas -b develop --depth 1
登录后复制    In [ ]
import paddle# 加载 Repo 中的模型列表model_list = paddle.hub.list('PaddleClas', source='local', force_reload=False)print(model_list)# 查看模型帮助文档model_help = paddle.hub.help('PaddleClas', 'mobilenetv3_large_x1_25', source='local', force_reload=False)print(model_help)# 加载模型model = paddle.hub.load('PaddleClas', 'mobilenetv3_large_x1_25', source='local', force_reload=False)# 模型测试data = paddle.rand((1, 3, 224, 224))out = model(data)print(out.shape) # [1, 1000]
登录后复制        
['alexnet', 'densenet121', 'densenet161', 'densenet169', 'densenet201', 'densenet264', 'googlenet', 'inceptionv3', 'inceptionv4', 'mobilenetv1', 'mobilenetv1_x0_25', 'mobilenetv1_x0_5', 'mobilenetv1_x0_75', 'mobilenetv2_x0_25', 'mobilenetv2_x0_5', 'mobilenetv2_x0_75', 'mobilenetv2_x1_5', 'mobilenetv2_x2_0', 'mobilenetv3_large_x0_35', 'mobilenetv3_large_x0_5', 'mobilenetv3_large_x0_75', 'mobilenetv3_large_x1_0', 'mobilenetv3_large_x1_25', 'mobilenetv3_small_x0_35', 'mobilenetv3_small_x0_5', 'mobilenetv3_small_x0_75', 'mobilenetv3_small_x1_0', 'mobilenetv3_small_x1_25', 'resnet101', 'resnet152', 'resnet18', 'resnet34', 'resnet50', 'resnext101_32x4d', 'resnext101_64x4d', 'resnext152_32x4d', 'resnext152_64x4d', 'resnext50_32x4d', 'resnext50_64x4d', 'shufflenetv2_x0_25', 'squeezenet1_0', 'squeezenet1_1', 'vgg11', 'vgg13', 'vgg16', 'vgg19']    MobileNetV3_large_x1_25    Args:        pretrained: bool=False. If `True` load pretrained parameters, `False` otherwise.        kwargs:             class_dim: int=1000. Output dim of last fc layer.    Returns:        model: nn.Layer. Specific `MobileNetV3_large_x1_25` model depends on args.    [1, 1000]
登录后复制        

已知问题

Paddle 2.1.0 GPU 版本暂时不太稳定,模型能够正常加载和前向计算,但是跑 PaddleHapi 的训练会直接崩溃重启(Issue 已提,Paddle 的 bug,待修复)通过 Gitee 无法加载,会报错 File is not a zip file(Issue 已提,目前该功能已从文档移除)GitHub 访问速度比较慢,不过这个没啥好办法每次加载模型后,如果不重启 Notebook 内核就无法重新加载(Issue 已提,PaddleClas 的 bug,待修复)PaddleClas 内的一些模型比如 MobileNet v3 系列,还无法在 PaddleHapi 中正常使用(提交的 pr 已合并)

猫的12分类

任务描述

利用训练的模型来预测数据所属的类别。

数据说明

本数据集包含12种类的猫的图片整个数据将被分为训练集与测试集。训练集:在训练集中,我们将提供高清彩色图片以及图片所属的分类测试集:在测试数据集中,我们仅仅提供彩色图片

解压数据集

使用数据之前第一步就是对训练和测试集进行解压缩In [ ]
!unzip -q -d /home/aistudio/data/data10954 /home/aistudio/data/data10954/cat_12_train.zip!unzip -q -d /home/aistudio/data/data10954 /home/aistudio/data/data10954/cat_12_test.zip
登录后复制    

数据预处理

对于一个数据集,首先要了解数据的组成是什么:

解压完的数据集中包括两个图片文件夹以及一个数据列表文件,如下图所示

Paddle.Hub 初探:快速基于预训练模型实现猫的 12 分类 - 游乐网                

其中 cat_12_train 和 cat_12_test 分别存放所有训练和测试集的图片train_list.txt 则是以由一行行"图片 标签"的数据组成的数据列表如:cat_12_train/8GOkTtqw7E6IHZx4olYnhzvXLCiRsUfM.webp 0其中使用0-11分别对12个类别进行标注中间使用\t作为分隔符

对于一个数据集,为了更好的衡量模型的效果,不能只有训练集和测试集,所以一般需要从中训练集中分出一部分作为验证集使用

了解了上述的内容,就可以开始使用代码来对数据集进行预处理了

In [ ]
import osimport paddleimport randomtotal = []# 读取数据标签with open('/home/aistudio/data/data10954/train_list.txt', 'r', encoding='UTF-8') as f:    for line in f:        # 格式转换        line = line[:-1].split('\t')        total.append(' '.join(line)+'\n')# 打乱数据顺序random.shuffle(total)'''切分数据集95%的数据作为训练集5%的数据作为验证集'''split_num = int(len(total)*0.95) # 写入训练数据列表with open('/home/aistudio/data/data10954/train.txt', 'w', encoding='UTF-8') as f:    for line in total[:split_num]:        f.write(line)# 写入验证数据列表with open('/home/aistudio/data/data10954/dev.txt', 'w', encoding='UTF-8') as f:    for line in total[split_num:]:        f.write(line)# 写入测试数据列表with open('/home/aistudio/data/data10954/test.txt', 'w', encoding='UTF-8') as f:    for line in ['cat_12_test/%s\n' % img for img in os.listdir('/home/aistudio/data/data10954/cat_12_test')]:        f.write(line)
登录后复制    

模型训练

模型训练的一般步骤如下:

搭建模型构建数据集和数据读取器配置各种参数构建训练任务开始训练模型

注:启动训练前请重启 Notebook 内核

注:目前只有 CPU 环境才可以正常运行如下代码

In [ ]
import osimport paddleimport randomimport paddle.nn as nnimport paddle.vision.transforms as T# 构建数据集class CatDataset(paddle.io.Dataset):    def __init__(self, transforms, dataset_path='/home/aistudio/data/data10954', mode='train'):        self.mode = mode        self.dataset_path = dataset_path        self.transforms = transforms        self.num_classes = 5        if self.mode == 'train':            self.file = 'train.txt'        elif self.mode == 'dev':            self.file = 'dev.txt'        else:            self.file = 'test.txt'        self.file = os.path.join(dataset_path, self.file)        with open(self.file, 'r') as file:            self.data = file.read()[:-1].split('\n')    def __getitem__(self, idx):        if self.mode in ['train', 'dev']:            img_path, grt = self.data[idx].split(' ')            img_path = os.path.join(self.dataset_path, img_path)            im = paddle.vision.image_load(img_path)            im = im.convert("RGB")            im = self.transforms(im)            return im, int(grt)        else:            img_path = self.data[idx]            img_path = os.path.join(self.dataset_path, img_path)            im = paddle.vision.image_load(img_path)            im = im.convert("RGB")            im = self.transforms(im)            return im    def __len__(self):        return len(self.data)# 加载数据集train_transforms = T.Compose([    T.Resize(256),    T.RandomCrop(224),    T.RandomHorizontalFlip(),    T.RandomVerticalFlip(),    T.ToTensor(),    T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])])test_transforms = T.Compose([    T.Resize(256),    T.CenterCrop(224),    T.ToTensor(),    T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])])train_dataset = CatDataset(train_transforms, mode='train')dev_dataset = CatDataset(test_transforms, mode='dev')test_dataset = CatDataset(test_transforms, mode='test')# 加载模型model = paddle.hub.load('PaddleClas', 'mobilenetv3_large_x0_5', source='local', force_reload=False, class_dim=12, pretrained=True)model = paddle.Model(model)# 定义优化器opt = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())# 配置模型model.prepare(optimizer=opt, loss=nn.CrossEntropyLoss(), metrics=paddle.metric.Accuracy(topk=(1, 5)))model.fit(    train_data=train_dataset,     eval_data=dev_dataset,     batch_size=32,     epochs=2,     eval_freq=1,     log_freq=1,     save_dir='save_models',     save_freq=1,     verbose=1,     drop_last=False,     shuffle=True,    num_workers=0)
登录后复制        
2024-05-18 12:43:59 INFO: unique_endpoints {''}2024-05-18 12:43:59 INFO: Downloading MobileNetV3_large_x0_5_pretrained.pdparams from https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/MobileNetV3_large_x0_5_pretrained.pdparams100%|██████████| 15875/15875 [00:00<00:00, 18983.36it/s]/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dygraph/layers.py:1297: UserWarning: Skip loading for out.weight. out.weight receives a shape [1280, 1000], but the expected shape is [1280, 12].  warnings.warn(("Skip loading for {}. ".format(key) + str(err)))/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dygraph/layers.py:1297: UserWarning: Skip loading for out.bias. out.bias receives a shape [1000], but the expected shape is [12].  warnings.warn(("Skip loading for {}. ".format(key) + str(err)))
登录后复制        
The loss value printed in the log is the current step, and the metric is the average value of previous steps.Epoch 1/2
登录后复制        
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working  return (isinstance(seq, collections.Sequence) and
登录后复制        
step 65/65 [==============================] - loss: 2.7684 - acc_top1: 0.6628 - acc_top5: 0.9464 - 3s/step        save checkpoint at /home/aistudio/save_models/0Eval begin...step 4/4 [==============================] - loss: 0.8948 - acc_top1: 0.7685 - acc_top5: 0.9907 - 732ms/step         Eval samples: 108Epoch 2/2step 65/65 [==============================] - loss: 0.5738 - acc_top1: 0.8397 - acc_top5: 0.9942 - 3s/step        save checkpoint at /home/aistudio/save_models/1Eval begin...step 4/4 [==============================] - loss: 0.5484 - acc_top1: 0.8611 - acc_top5: 0.9907 - 779ms/step         Eval samples: 108save checkpoint at /home/aistudio/save_models/final
登录后复制        

模型预测

模型预测一般步骤:

读取数据模型预测预测结果后处理输出最终结果In [ ]
import numpy as np# 模型预测results = model.predict(test_dataset, batch_size=32, num_workers=0, stack_outputs=True, callbacks=None)# 对预测结果进行后处理total = []for img, result in zip(test_dataset.data, np.argmax(results[0], 1)):    total.append('%s,%s\n' % (img.split('/')[-1], result))# 生成结果文件with open('result.csv','w') as f:    for line in total:        f.write(line)
登录后复制        
Predict begin...step 8/8 [==============================] - 805ms/step        Predict samples: 240
登录后复制        
来源:https://www.php.cn/faq/1425686.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

Pywinrm,一个 Python 管理利器!
科技数码
Pywinrm,一个 Python 管理利器!

Pywinrm 通过Windows远程管理(WinRM)协议,让Python能够像操作本地一样执行远程Windows命令,真正打通了跨平台管理的最后一公里。 在混合IT环境中,Linux机器管理Wi

热心网友
04.07
全网炸了!5亿人用的Axios竟被投毒,你的密钥还保得住吗?
科技数码
全网炸了!5亿人用的Axios竟被投毒,你的密钥还保得住吗?

早些时候,聊过 Python 领域那场惊心动魄的供应链攻击。当时我就感叹,虽然我们 JavaScript 开发者对这类套路烂熟于心,但亲眼目睹这种规模的“投毒”还是头一次。 早些时候,聊过 Pyth

热心网友
04.07
Toga,一个超精简的 Python 项目!
科技数码
Toga,一个超精简的 Python 项目!

Toga 是 BeeWare 家族的核心成员,号称“写一次,跑遍所有平台”,而且用的是系统原生控件,不是那种一看就是网页套壳的界面 。 写了这么多年 Python,你是不是也想过:要是能一套代码跑

热心网友
04.07
Python 异常处理:别再用裸奔的 try 了
科技数码
Python 异常处理:别再用裸奔的 try 了

异常处理的核心:让错误在正确的地方被有效处理。正确的地方,就是别在底层就把异常吞了,也别在顶层还抛裸奔的 Exception。 异常处理写得好,半夜不用起来改 bug。1 你是不是也这么干过?tr

热心网友
04.07
OpenClaw如何自定义SKILL
AI
OpenClaw如何自定义SKILL

1 Skills机制概述 提起OpenClaw的Skills机制,不少人可能会把它想象成传统意义上的可执行插件。其实,它的内涵要更精妙一些。 简单说,Skills本质上是一套基于提示驱动的能力扩展机制。它并不是一个可以独立“跑”起来的程序模块,而是通过一份结构化描述文件(核心就是那个SKILL m

热心网友
04.07

最新APP

宝宝过生日
宝宝过生日
应用辅助 04-07
台球世界
台球世界
体育竞技 04-07
解绳子
解绳子
休闲益智 04-07
骑兵冲突
骑兵冲突
棋牌策略 04-07
三国真龙传
三国真龙传
角色扮演 04-07

热门推荐

美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查
web3.0
美国SEC主席Paul Atkins证实:加密货币安全港提案已送交白宫审查

加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这

热心网友
04.08
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币
web3.0
微策略Strategy报告:第一季录得144.6亿美元浮亏 再斥资约3.3亿美元买进4871枚比特币

微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿

热心网友
04.08
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch
web3.0
稳定币发行商Tether再扩Web3版图!Paolo Ardoino:正开发去中心化搜索引擎Hypersearch

稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D

热心网友
04.08
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线
web3.0
Base链首个原生DeFi借贷协议Seamless Protocol倒闭 将于2026年6月30日下线

基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一

热心网友
04.08
PAAL代币如何参与治理?社区投票能决定哪些事项?
web3.0
PAAL代币如何参与治理?社区投票能决定哪些事项?

PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票

热心网友
04.08