当前位置: 首页 > AI > 文章内容页

【AI达人创造营第二期】电机异音AI诊断

时间:2025-07-23    作者:游乐小编    

本项目针对电机异音AI诊断,利用飞桨平台构建模型。因人工质检易误判,项目基于振动信号,用机器学习技术实现智能检验,要求故障电机零漏检。通过复制正样本解决数据不平衡,修改损失函数,用全连接层训练。结果显示正样本全对,负样本准确率91%,可改进为卷积层并设验证集。

【ai达人创造营第二期】电机异音ai诊断 - 游乐网

电机异音AI诊断

本项目为飞桨领航团AI达人创造营第二期作业。

项目背景

在电机生产线上普遍采用人工听音的方法分辨良、次品,不仅成本高,而且重复、单调的听音工作极易引起人员疲劳,容易出现误判,若个别不良品混入整批成品中,会给工厂带来严重经济损失,甚至严重影响产品声誉。

(数据对应的比赛)本次大赛要求参赛者基于加速度传感器采集的振动信号,利用机器学习、深度学习等人工智能技术,设计智能检验的算法,要求算法对故障电机不能有漏识别,在召回100%的情况下,尽量提高预测准确率,以达到替代人工质检的目的。

数据说明

文件清单:

Motor_tain.zip:用于训练的采集数据,其中,文件夹“正样本”包含30个异常电机的数据样本,文件夹“负样本”包含500个正常电机的数据样本;Motor_testP.zip:用于测试的采集数据,包含500个电机的数据样本;
文件说明:采集数据时是分别对电机正转、反转时的振动信号进行采集。也就是说每台电机有两条数据,其中F代表正转,B代表反转。每条数据包含两路振动信号,数据文件命名规则:编号_旋转方向.csv。比赛链接:https://jingsai.julyedu.com/v/25820185621432447/dataset.jhtml

项目方案

每个样本包含F和B两份csv,每个csv文件包含79999×2个数据。使用多个全连接层进行预测。使用的损失函数为交叉熵。

模型如下:

【AI达人创造营第二期】电机异音AI诊断 - 游乐网        

处理方案

重采样:针对数据不平衡,复制多份正向样本,从而训练时达到类别均衡采样的效果修改损失:针对题目要求的保证TP最大,尽可能减小FP的问题,将label==1的损失权重设定为1.1。

代码

预处理

In [1]
! unzip -oq data/data31822/Motor_tain.zip! unzip -oq data/data31822/Motor_testP.zip
登录后复制    In [31]
import ostrain_pos_dir='Motor_tain/╒¤╤∙▒╛/'train_neg_dir='Motor_tain/╕║╤∙▒╛/'# 生成三份文件便于按照类别比例划分with open('train_pos.txt','w') as f:    for item in list(set([item[:len(item)-6] for item in os.listdir(train_pos_dir)])):        if '.ipynb' not in item:            f.write(train_pos_dir+item+'\t1\n')with open('train_neg.txt','w') as f:    for item in list(set([item[:len(item)-6] for item in os.listdir(train_neg_dir)])):        if '.ipynb' not in item:            f.write(train_neg_dir+item+'\t0\n')with open('train.txt','w') as f:    for item in list(set([item[:len(item)-6] for item in os.listdir(train_pos_dir)])):        if '.ipynb' not in item:            for i in range(int(500/30)):                f.write(train_pos_dir+item+'\t1\n')    for item in list(set([item[:len(item)-6] for item in os.listdir(train_neg_dir)])):        if '.ipynb' not in item:            f.write(train_neg_dir+item+'\t0\n')
登录后复制    

构造读取器

In [33]
import paddleimport numpy as npimport paddle.vision.transforms as Tfrom PIL import Imageimport pandas as pdclass MyDateset(paddle.io.Dataset):    def __init__(self,txt_dir):        super(MyDateset, self).__init__()                self.path=[]        self.label=[]        with open(txt_dir,'r') as f:            for line in f.readlines():                self.path.append(line.split('\t')[0])                self.label.append(line.split('\t')[1][0])    def __getitem__(self, index):        path = self.path[index]        label = int(self.label[index])        F=pd.read_csv(path+'_F.csv')        B=pd.read_csv(path+'_B.csv')        F=paddle.to_tensor(F.values).flatten(0).astype('float32')        B=paddle.to_tensor(B.values).flatten(0).astype('float32')        label = np.array(label).astype('int64')        return F,B,label    def __len__(self):        return len(self.label)
登录后复制    In [34]
train_dataset=MyDateset('train.txt')train_dataloader = paddle.io.DataLoader(    train_dataset,    batch_size=16,    shuffle=True,    drop_last=False)for step, data in enumerate(train_dataloader):    F, B, label = data    print(step, F.shape, B.shape, label.shape)    break
登录后复制        
0 [16, 159998] [16, 159998] [16]
登录后复制        

构造网络模型

In [35]
class MyNet(paddle.nn.Layer):    def __init__(self):        super(MyNet,self).__init__()        self.fc_F = paddle.nn.Linear(in_features=159998, out_features=2000)        self.fc_B = paddle.nn.Linear(in_features=159998, out_features=2000)        self.fc_1  = paddle.nn.Linear(in_features=4000, out_features=1000)        self.fc_2  = paddle.nn.Linear(in_features=1000, out_features=200)        self.fc_3  = paddle.nn.Linear(in_features=200, out_features=2)    def forward(self,F,B):        F = self.fc_F(F)        B = self.fc_B(B)        x = paddle.concat([F,B],axis=-1)        x = self.fc_1(x)        # x = paddle.nn.functional.relu(x)        x = self.fc_2(x)        # x = paddle.nn.functional.relu(x)        x = self.fc_3(x)        return x
登录后复制    

训练

In [38]
model = MyNet()model.train()max_epoch=10opt = paddle.optimizer.SGD(learning_rate=0.001, parameters=model.parameters())now_step=0for epoch in range(max_epoch):    for step, data in enumerate(train_dataloader):        now_step+=1        F, B, label = data        pre = model(F,B)        loss = paddle.nn.functional.cross_entropy(pre,label,weight=paddle.to_tensor([1,1.1]),reduction='mean')        loss.backward()        opt.step()        opt.clear_gradients()        if now_step%100==0:            print("epoch: {}, batch: {}, loss is: {}".format(epoch, step, loss.mean().numpy()))paddle.save(model.state_dict(), 'model.pdparams')
登录后复制        
epoch: 1, batch: 37, loss is: [0.631444]epoch: 3, batch: 13, loss is: [0.63104683]epoch: 4, batch: 51, loss is: [0.63319224]epoch: 6, batch: 27, loss is: [0.5660453]epoch: 8, batch: 3, loss is: [0.5968682]epoch: 9, batch: 41, loss is: [0.5927209]
登录后复制        

查看混淆矩阵

格式为

In [39]
# mydict = paddle.load("model_1.pdparams")# model.set_state_dict(mydict)record=np.zeros([2,2])for i in range(len(train_dataset)):    F,B,label=train_dataset[i]    pre=model(F,B)    # print(f'real label: {label} pre label: {np.argmax(pre.numpy())}')    record[label.tolist()][np.argmax(pre.numpy())]+=1record
登录后复制        
array([[455.,  45.],       [  0., 480.]])
登录后复制                

总结

本项目使用了极简方式构造了一个电机异音AI诊断模型,最终结果表明模型可以将全部正样本(异常)都判断正确,并且负样本的占比为9%。除去模型效果的因素外,本项目有以下不足,可以继续改进:

本项目构造了一个简单的全连接层网络模型,但由于数据量较大,需要在第一个全连接层尽可能地压缩节点数。可以尝试使用卷积替换全连接层。由于样本量较少(正向样本仅30个),仅设置了训练集,没有设定验证集。
末日生还者Under AI
末日生还者Under AI
221.57 MB  时间:04.23  

热门推荐

更多

热门文章

更多

首页  返回顶部

本站所有软件都由网友上传,如有侵犯您的版权,请发邮件youleyoucom@outlook.com