-
目前,在抽油机故障监测中,示功图是十分常见的工具。示功图中展示的是载荷(P)和位移(S)之间的变化关系,是一条封闭的曲线,是通过安装在抽油机悬点处的载荷位移传感器测量得到的闭合曲线。 现阶段抽油机故障诊断主要方法是功图法[1]。但随着卷积神经网络在图像识别中的快速发展,其在抽油机故障诊断中的应用也在不断增加。文献[2-5]将卷积神经网络应用到示功图诊断中,首先将大量的示功图图像进行数字化后作为模型的输入,然后应用卷积神经网络技术搭建模型实现对示功图的智能诊断。文献[6]将深度可分离结构和注意力机制相结合,提出了一种轻量的卷积神经网络模型用于示功图的诊断。
文献[7]提出胶囊神经网络和胶囊间的动态路由算法,其主要思想是将标量神经元改为向量的形式,使得网络可以学习并保留空间位置信息,并且取消池化操作,获得了更好的效果。但提出的胶囊神经网络特征提取仅使用单层卷积结构,导致特征提取能力较弱。文献[8]提出了双层卷积结构的胶囊神经网络,特征提取能力有一定的提高,但是仍然忽略了细微特征。文献[9]提出了一种基于Inception结构与空间注意力机制相结合的胶囊神经网络,采用多尺度特征融合的方式和Inception结构[10]与空间注意力机制,虽然增强了特征提取的能力,但也增加了模型的参数,模型训练时间变长。
本文提出的基于改进胶囊神经网络的示功图诊断模型将fire module模块[11]和Tanimoto系数[12]分别应用到胶囊神经网络的特征提取部分和动态路由算法中。不仅解决了传统胶囊神经网络特征提取能力不足以及动态路由算法中相似性衡量粗糙的问题,而且通过fire module模块中压缩再扩展的方式减少了模型的参数。随着多尺度特征的融合以及特征提取能力和相似性衡量能力的提升,势必会出现过拟合的现象。本文提出适用于胶囊神经网络的Dropout算法,使胶囊神经网络中的向量神经元在一次动态路由算法中以一定的概率被屏蔽而不参与动态路由算法的运算,增加网络的多样性,减少模型的过拟合,提高其泛化能力。
-
通过卷积神经网络模型的变更过程可知加深网络的层数,虽然可在一定程度上提高模型性能,但却带来了模型参数暴增的问题。SqueezeNet[13-14]从网络结构优化的角度出发,首先通过
$1 \times 1$ 卷积减少输入通道,然后使用多尺寸的卷积核进行卷积运算,以保留更多的信息。Fire Module模块结构如图1所示。Fire Module[15]模块主要包含3部分:1)利于
$1 \times 1$ 卷积操作减少通道数;2)包含多尺度特征提取的思想,通过$1 \times 1$ 以及$3 \times 3$ 卷积提取多尺度特征;3)将提取到的多尺度特征进行融合。Fire Module模块通过压缩再扩展,有效降低卷积操作的计算量,并且进行了特征的融合。 -
胶囊网络的概念在2017年由Hinton提出,在胶囊神经网络中,将胶囊定义为一组神经元的集合,并且将胶囊作为网络的最终输出结果,通过胶囊的模长来表示某一实体存在的概率,胶囊的模长与其存在的概率成正比的关系。重要的是胶囊神经元中的维度数据则是表示实体的空间位置信息。并且实体的姿态发生变化不会影响胶囊神经元的模长,仅是胶囊神经元中存储的位置信息发生变化,利用这一点,胶囊神经网络实现了同变性。胶囊神经元流动过程如图2所示。
图2中,向量
${{\boldsymbol{u}}_i}$ 为上一层的输出向量,将该向量分别乘上对应的权重矩阵$ {{\boldsymbol{W}}_{ij}} $ 进而得到向量${{\boldsymbol{U}}_i}$ 。${{\boldsymbol{W}}_{ij}}$ 中蕴含着高层特征与低层之间的空间信息数据,向量${{\boldsymbol{U}}_i}$ 先进行标量加权再进行累加求和。最终对累加求和得到的结果进行非线性压缩变换,采用的压缩函数为:$$ {{\boldsymbol{v}}_j} = \frac{{||{{\boldsymbol{S}}_j}|{|^2}}}{{1 + ||{{\boldsymbol{S}}_j}|{|^2}}}\frac{{{{\boldsymbol{S}}_j}}}{{||{{\boldsymbol{S}}_j}||}} $$ 式中,
${{\boldsymbol{S}}_j}$ 表示累计求和的结果。非线性激活函数并不会改变胶囊神经元存储的空间信息,仅是将模长压缩到0~1之间,以便表示实体存在概率,${{\boldsymbol{v}}_j}$ 是当前胶囊的输出结果。胶囊神经元之间采用动态路由的方式进行特征传递,通过相关性计算,特征得到很好的归类,原有动态路由算法仅仅是通过向量点乘来衡量相似性,现将Tanimoto系数引入动态路由算法。算法过程步骤如下。
1)
$b{}_{ij}$ 为$l$ 层第$i$ 个胶囊和$l + 1$ 层第$j$ 个胶囊间的特征传递参数,初始化为0;2)利用softmax计算两层胶囊间的权重
${C_{ij}}$ :$$ {C_{ij}} = \frac{{e^{b_{ij}}}}{{\displaystyle\sum\limits_k {e^{b_{ik}}} }} $$ 3)低层胶囊特征
${{\boldsymbol{u}}_i}$ 传递至高层胶囊,得到高层特征$ {S_j} $ :$$ {S_{ij}} = \sum {{C_{ij}}} \cdot {u_{ij}} $$ 4)压缩高层胶囊特征,得到压缩后的特征;
5)权重更新方式为:
$$ {b_{ij}} = {b_{ij}} + \frac{{{{\boldsymbol{u}}_i} \cdot {{\boldsymbol{v}}_j}}}{{||{{\boldsymbol{u}}_i}|{|^2} + ||{{\boldsymbol{v}}_i}|{|^2} - {{\boldsymbol{u}}_i} \cdot {{\boldsymbol{v}}_j}}} $$ -
为提高胶囊神经网络的特征提取能力,将Fire Moduel模块应用于胶囊神经网络,通过Fire Moduel模块中压缩再扩展以及多尺度卷积结构,增加网络的深度,提高特征提取的能力并且实现多尺寸卷积融合,构建更加全面多样的特征提取模块,将Dropout思想[16-17]应用于胶囊神经网络,提出适用于胶囊神经网络的算法,在胶囊神经网络中的向量神经元进入动态路由算法之前,以一定概率产生随机的0、1矩阵,用其屏蔽向量神经元,以增加网络的多样性,防止特征提取能力太强而导致的过拟合现象。在动态路由算法中引入Tanimoto系数,在动态路由的聚类过程中更多的考虑胶囊向量方向上的差异性,弱化胶囊长度带来的影响。模型结构如图3所示。
该模型的输入是
$28 \times 28$ 的图片,首先经过$9 \times 9$ 的卷积对图片信息进行初步的提取,初步提取的信息经过$1 \times 1$ 卷积操作压缩特征通道,再由$3 \times 3$ 与$1 \times 1$ 的卷积操作,进一步地提取特征,将提取的多尺寸特征进行融合完成特征提取部分。然后通过得到的特征图构建向量神经元,再进行Dropout操作随机使部分向量神经元神经失活,增加网络多样性,防止过拟合。网络中的特征通过改进后的动态路由算法进行特征整合。 -
该模型的损失函数包含间隔损失与重构损失,间隔损失为:
$$ \begin{gathered} {L_k} = {T_k}{\rm{max}}{(0,{{m}^ + } - ||{V_k}||)^2} + \hfill \\ \lambda (1 - {T_k}){\rm{max}}{(0,||{V_k}|| - {m^ - })^2} \hfill \\ \end{gathered} $$ 式中,
${L_k}$ 表示间隔损失,表示第K类是否存在。若存在${L_k}$ 取1,否则取0。${m^ - }$ 是$||{V_c}||$ 上边界,避免假阴性,遗漏实际预测到的分类情况。K类不存在但预测存在,会导致损失函数很大。${m^ + }$ 是$||{V_c}||$ 下边界,避免假阳性,K类存在但是预测不存在会导致损失函数很大。重构损失则是通过解码器将数字胶囊层的输出进行解码重建一个
$28 \times 28$ 的图像。计算重构图像与原始图像的距离作为损失值。解码器结构如图4所示。$\lambda $ 为正则化系数,用于调整重构损失在总损失中所占的比例。$L = {L_k} + \lambda {L_c}$ ,其中$L$ 为总损失,${L_c}$ 为重构损失。 -
CapNets网络在MNIST数据集上取得了优异的分类表现,现将FDT-CapNets与CapNets在MNIST数据集上进行实验对比。CapNets网络的模型结构如图5所示。
MNIST数据集包含60000个训练样本和10000个测试样本。FDT-CapNets与CapNets均使用Adam优化器,学习率均为0.0001。全部样本训练迭代次数设置为30次,每次读入数据量的大小为128。实验结果如表1所示。
表 1 实验结果
模型 训练正确率/% 测试正确率/% FDT-CapNets 100 99.53 CapNets 100 99.41 由表1可知CapNets在MNIST数据集上获得了很高的训练精度与测试精度,而FDT-CapNets在该数据集上同样取得了优异的表现,并且比CapNets的精度有所提高。图6展示出FDT-CapNets与CapNets在训练过程中损失函数的变化情况。
通过图6可知FDT-CapNets与CapNets收敛速度相似,但FDT-CapNets的损失函数变化更稳定并且后期的损失值更小。
-
实验所使用的数据集是某一油厂在实际生产中所测得的实际数据。首先将载荷与位移数据从数据库读出,将载荷与位移数据按照一定的组合方式绘制出示功图,如图 7所示。由于实际生产中处于异常工作的抽油机较少,因此异常示功图的数据量较少,为避免模型在训练过程中由于数据集分布不均导致的过拟合,对现有数据进行水平翻转以及在90°、−90°与180°中随机选取一个数作为旋转度数,对图片进行旋转,通过该操作平衡数据集中各类示功图的数量,消除因数据不平衡造成的模型泛化能力下降的问题。
将数据集进行预处理后可以得到“正常”“气体影响”“充不满”“活塞脱出”“抽油杆断”5个类别的示功图数据,共7500张。数据集样本分布如表2所示。
表 2 数据样本分布表
类型 数量 标签 编码 正常 1500 1 10000 气体影响 1500 2 01000 充不满 1500 3 00100 活塞脱出 1500 4 00010 抽油杆断 1500 5 00001 为方便训练时计算损失函数,将示功图标签进行独热编码,随机抽取70%的数据作为训练数据集以训练模型,剩余30%的数据作为测试集以验证模型的学习效果。数据读取时,将数据的像素值除以255进行归一化操作,提高模型的收敛速度。
-
为检验模型性能,将模型与CapNets、LeNet5网络以及VGG16进行对比。LeNet5网络和VGG16的模型如图8和图9所示。
LeNet5网络包含3层卷积结构与2层全连接层,卷积核大小均为
$5 \times 5$ ,VGG网络由13层卷积核和3层全连接层构成。3个模型的激活函数均为ReLU函数。 -
在示功图数量为5250的训练集上进行实验验证,模型均使用Adam优化器,学习率均为0.0001。全部样本训练迭代次数设置为30次,每次读入数据量的大小为128。测试数据集的大小为2250,每次读入批次大小为128,取多次测试结果的均值作为最后的测试结果。
为验证改进的胶囊神经网络(FDT-CapNets)中每一部分的改进对网络的影响,在现有的训练集与测试集上,对每一部分的改进进行实验对比验证,实验结果如表3所示。
表 3 分步改进实验结构表
模型 训练正确率/% 测试正确率/% 耗时/min CapNets 95.73 95.12 57 F-CapNets 96.12 95.63 50 FT-CapNets 96.53 95.97 52 FDT-CapNets 97.66 97.05 52 表3中的F-CapNets代表Fire Module模块与CapNets的融合,FT-CapNets代表Fire Module模块与Tanimoto系数与CapNets的融合。可知引入Fire Module模块后,训练与测试的精度均高于CapNets,并且训练时间有所下降,实验证明Fire Module模块的引入不仅提高了特征提取能力而且减少了参数,加快了模型训练时间。由于Fire Module模块与Tanimoto系数的同时应用,在提高特征质量的前提上又采用了更优的相似性衡量方式使得模型的精度进一步提高。Dropout的引入使得在FT-CapNets的基础上取得了更好的效果,并且对网络的耗时未产生影响。
为验证FDT-CapNets网络在精度上的有效性,将FDT-CapNets与双卷积胶囊神经网络(CapNets)、VGG16和LeNet5进行实验对比。训练结果如表4所示。
表 4 实验对比结果
模型 训练正确率/% 测试正确率/% FDT-CapNets 97.66 97.05 CapNets 95.73 95.12 VGG16 95.38 94.53 LeNet5 93.56 93.06 从表4可以得出,FDT-CapNets与CapNets的正确率均高于VGG16、LeNet5,并且FDT-CapNets在训练精度上比CapNets取得了更好的效果。
在测试集上,改进的胶囊神经网络取得了优于双层卷积胶囊神经网络,VGG16与LeNet5的准确率、测试准确率分别为97.05%、95.12%、94.53%、93.06%。
为了清晰地展示各个模型的训练过程,图10显示了损失函数随迭代次数的变化情况。
由图10可知,LeNet5网络的收敛速度在三者之间速度最慢,在迭代670步之后CapNets与FD-CapNets的损失函数达到收敛趋于平稳不再继续下降。FDT-CapNets的损失函数的总体波动比CapNets波动更小,更加趋于平稳。
Indicator Diagram Diagnosis Model Based on Improved Capsule Neural Network
-
摘要: 针对传统胶囊神经网络特征提取结构单一,模型参数量大以及动态路由算法中相似度衡量粗糙等问题,该文提出一种改进的胶囊神经网络。应用Fire Module模块,将网络中特征图通道数先进行压缩,再通过多尺度的卷积核提取特征信息,进而提升网络的特征提取能力和减少网络模型的参数。将Dropout思想引入胶囊神经网络来增加模型的多样性,并在动态路由结构中应用Tanimoto系数提高动态路由算法性能,加快模型收敛提高精度。为验证改进胶囊神经网络的有效性,将改进的胶囊神经网络与双卷积胶囊神经网络和传统卷积神经网络以及VGG网络模型进行对比。实验结果表明,改进的模型具有更高的准确率和更快的训练速度。
-
关键词:
- 胶囊神经网络 /
- fire module模块 /
- 示功图诊断 /
- Tanimoto系数
Abstract: Aiming at the problems of the traditional capsule neural network feature extraction structure is single, the model parameter is large, and the similarity measurement in the dynamic routing algorithm is rough, an improved capsule neural network is proposed. Using the Fire Module module, the number of feature map channels in the network is first compressed, and then the feature information is extracted through the multi-scale convolution kernel, thereby improving the feature extraction capability of the network and reducing the parameters of the network model. The Dropout idea is introduced into the capsule neural network to increase the diversity of the model, and the Tanimoto coefficient is used in the dynamic routing structure to improve the performance of the dynamic routing algorithm, speed up the model convergence and improve the accuracy. In order to verify the effectiveness of the improved capsule neural network, the improved capsule neural network is compared with the double convolutional capsule neural network, the traditional convolutional neural network and the VGG network model. Experimental results show that the improved model has higher accuracy and faster training speed.-
Key words:
- capsule neural network /
- fire module /
- indicator diagram diagnosis /
- Tanimoto coefficient
-
表 1 实验结果
模型 训练正确率/% 测试正确率/% FDT-CapNets 100 99.53 CapNets 100 99.41 表 2 数据样本分布表
类型 数量 标签 编码 正常 1500 1 10000 气体影响 1500 2 01000 充不满 1500 3 00100 活塞脱出 1500 4 00010 抽油杆断 1500 5 00001 表 3 分步改进实验结构表
模型 训练正确率/% 测试正确率/% 耗时/min CapNets 95.73 95.12 57 F-CapNets 96.12 95.63 50 FT-CapNets 96.53 95.97 52 FDT-CapNets 97.66 97.05 52 表 4 实验对比结果
模型 训练正确率/% 测试正确率/% FDT-CapNets 97.66 97.05 CapNets 95.73 95.12 VGG16 95.38 94.53 LeNet5 93.56 93.06 -
[1] 张琪. 采油工程原理与设计[M]. 青岛: 中国石油大学出版社, 2006. ZHANG Q. Principle and design of oil recovery engineering[M]. Qningdao: University of Petroleum Press, 2006. [2] TIAN H, DENG S, WANG C, et al. A novel method for prediction of paraffin deposit in sucker rod pumping system based on CNN indicator diagram feature deep learning[J]. Journal of Petroleum Science and Engineering, 2021(3-4): 108986. [3] 刘宝军. 基于CNN卷积神经网络的示功图诊断技术[J]. 西安石油大学学报(自然科学版), 2018, 33(5): 70-75, 82. LIU B J. Diagnostic technology of indicator diagram based on CNN convolutional neural network[J]. Journal of Xi 'an Shiyou University (Natural Science Edition), 2018, 33(5): 70-75, 82. [4] PENG Y, ZHAO R, ZHANG X, et al. Innovative convolutional neural networks applied in dynamometer cards generation[C]//SPE Western Regional Meeting. California: [s.n.], 2019: [5] SHARAF S A. Beam pump dynamometer card prediction using artificial neural networks[J]. KNE Engineering, 2018, 3(7): 198. doi: 10.18502/keg.v3i7.3083 [6] 杜娟, 刘志刚, 宋考平, 等. 基于卷积神经网络的抽油机故障诊断[J]. 电子科技大学学报, 2020, 49(5): 751-757. doi: 10.12178/1001-0548.2019205 DU J, LIU Z G, SONG K P, et al. Fault diagnosis of pumping unit based on convolutional neural network[J]. Journal of University of Electronic Science and Technology of China, 2020, 49(5): 751-757. doi: 10.12178/1001-0548.2019205 [7] SA SABOUR S, FROSST N, HINTON G E. Dynamic routing between capsules[EB/OL]. [2020-10-26]. https://arxiv.org/abs/1710.09829. [8] 杨平, 苏燕辰, 张振. 基于卷积胶囊网络的滚动轴承故障诊断研究[J]. 振动与冲击, 2020, 39(4): 55-62. YANG P, SU Y C, ZHANG Z. Research on rolling bearing fault diagnosis based on convolutional capsule network[J]. Vibration and Shock, 2020, 39(4): 55-62. [9] 孙岩, 彭高亮. 改进胶囊网络的滚动轴承故障诊断方法[J]. 哈尔滨工业大学学报, 2021, 53(1): 29-34. doi: 10.11918/202008109 SUN Y, PENG G L. Rolling bearing fault diagnosis method based on improved capsule network[J]. Journal of Harbin Institute of Technology, 2021, 53(1): 29-34. doi: 10.11918/202008109 [10] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2015: 1-9. [11] IANDOLA F N, HAN S, MOSKEWICE M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and<0.5 MB model size[EB/OL]. [2020-11-12]. https://arxiv.org/abs/1602.07360. [12] 潘汉. 基于稀疏逼近的图像解模糊与动态融合[D]. 上海: 上海交通大学, 2014. PAN H. Image deblurring and dynamic fusion based on sparse approximation[D]. Shanghai: Shanghai Jiao Tong University, 2014. [13] ALHICHRI H, BAZI Y, ALAJLAN N, et al. Helping the visually impaired see via image multi-labeling based on SqueezeNet CNN[J]. Applied Sciences-Basel, 2019, 9(21): 1-20. [14] LEE H J, ULLAH I, WAN W G, et al. Real-time vehicle make and model recognition with the residual SqueezeNet architecture[J]. Sensors, 2019, 19(5): 982-995. doi: 10.3390/s19050982 [15] KANG Q, ZHAO H, YANG D, et al. Lightweight convolutional neural network for vehicle recognition in thermal infrared images[J]. Infrared Physics & Technology, 2019, 104: 103120. [16] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: A simple way to prevent neural networks from overfitting[J]. Journal of Machine Learning Research, 2014, 15(1): 1929-1958. [17] HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. Computer Science, 2012, 3(4): 212-223.