-
包覆药作为一种高能量材料,通常被嵌入固体火箭或导弹发动机的动力系统中,其在高温高压的环境中通过燃烧产生能量,为该动力系统提供动力[1]。包覆药外观质量直接关联着其燃烧性能,进而影响着该类动力系统的运行表现[2],因此在制造过程中对其外观质量进行实时检测具有重要意义。
包覆药外观缺陷类型多样,主要包括形状缺陷、尺寸缺陷和表面缺陷。目前,包覆药外观缺陷是通过人工检测的方式实现缺陷包覆药的检出,但该方法检测效率低下,且检测结果易受人工状态影响。随着信息化和智能化技术的快速发展,基于深度学习的视觉检测技术凭借其具有特征自主提取、特征快速迁移等优势[3],被广泛应用在实际生产制造等工业场景中[4-5],下面将分述不同类型缺陷检测的研究现状。
包覆药形状缺陷检测可被视为分类问题,即根据包覆药的形状表征将其分为斜角、黏合和形状正常包覆药。形状表征是指基于包覆药的轮廓及其内部语义信息,挖掘用于描述不同形状的规则。传统形状表征规则主要依赖于人工设计[6],然而该规则易受环境干扰、鲁棒性较差。随着文献[7]对形状表征深入的研究,基于形状的自然图像分类问题在机器视觉领域得到快速普及。此外,受益于神经网络平移不变性质,即使图像中目标对象发生平移、旋转、缩放等变化,深度分类器仍能取得较好的图像分类效果,已成为解决图像分类问题的主流方法[8]。
包覆药尺寸缺陷本质上可归结为尺寸测量问题,不在尺寸范围内的过长和过短包覆药均被视为尺寸缺陷包覆药。目前基于图像的尺寸测量多数是根据图像二值化、分水岭分割等传统图像处理算法[9-10],但此类算法易受阈值约束,难以适配光照变化、环境噪声和复杂背景等场景。本文将深度分割网络[11]作为尺寸缺陷检测过程的预处理模型,利用深度学习特征自主提取等性质将包覆药从复杂背景中分割出来,将包含复杂背景的包覆药图像转换为包覆药区域像素为255、其余区域像素为0的二值掩码图像。之后通过空间坐标转换规则,实现尺寸缺陷检测。
包覆药表面缺陷包括表面凹坑、裂痕等可视缺陷。基于深度学习的表面缺陷检测方法目前在NEU-CLS和KolektorSDD等工业数据集上均取得了显著的表现[12-13]。然而,上述基于有监督学习的表面缺陷检测依赖于大量有标签缺陷数据,难以适配包覆药表面缺陷数据稀缺场景。受文献[14]启发,本文将表面缺陷检测视为无监督学习任务,只利用正样本数据实现表面缺陷包覆药的检出。
虽然目前存在众多基于视觉的缺陷检测方法,但大多数方法主要集中解决单一缺陷类型,难以同时实现包覆药形状缺陷、尺寸缺陷和表面缺陷检测,开发一个能够同时完成上述3种缺陷的检测框架迫在眉睫。同时,目前深度检测算法被嵌入边缘设备端,然而该类边缘设备存储和运算性能均有限,确保模型轻量化对实时检测极其重要。此外,不同检测任务所需特征存在重叠交叉,不同检测任务间具有强相关性,如何有效利用任务相关信息,在去除冗余特征的同时加速模型收敛过程至关重要。针对上述问题,本文提出了一种基于动态先验特征的包覆药多类型外观缺陷检测框架,主要贡献包括以下3点。
1)本文提出的多类型外观缺陷检测框架能够同时实现包覆药形状、尺寸和表面缺陷的检测。
2)本文将用于形状缺陷检测的深度分类器和用于尺寸缺陷检测的深度分割网络集成,移除不同任务间的冗余特征,并利用梯度停止策略阻止不同任务训练过程相互干扰,确保模型收敛。此外,本文设计了一种基于深度卷积自编码器的表面缺陷检测方法,只需正样本就可实现表面缺陷的检出。
3)本文提出了一种基于动态先验特征的空间注意力机制,将深度分割网络迭代过程中形成的过程信息作为动态先验特征,指导深度分类器和深度卷积自编码器快速聚焦于包覆药,抑制任务无关特征干扰模型训练过程,加速模型收敛速度。
-
本文提出的包覆药多类型外观缺陷检测框架主要包括两个子模型:深度分割网络和卷积自编码器(convolutional autoencoder, CAE)[15]。这两个子模型含有一个共同的结构,称为编码−解码结构。其中,编码器通过逐层降维捕获语义信息,而解码器利用上采样操作逐渐恢复图像空间信息,编码器和解码器呈相互对称结构。编码−解码结构与卷积神经网络(convolutional neural network, CNN)的结合,在工业缺陷检测领域取得了广泛的关注。此外受益于CNN的参数共享和局部连接特性[15-16],编码−解码模型的参数量得以大幅减少。
深度分割网络中的解码器用于生成不同语义的分割图,而CAE中的解码器用于重构输入。与线性自编码器不同的是,CAE可保留二维图像的空间信息,并在局部位置实现参数共享。CAE主要由一个编码器
$ h = e\left( x \right) $ 和一个解码器$ y = d\left( h \right) $ 组成,其中$ h $ 表示输入图像$ x $ 的低维表征。编码器能够学习输入图像低维表征,而解码器利用该表征尽可能无差重构输入图像。CAE通过最小化式(1)实现模型参数训练,其具体表述如下:$$ L(x,y) = \frac{1}{n}\displaystyle\sum\limits_{i = 1}^n {{{\left\| {{x_i} - d(e({x_i}))} \right\|}^2}} $$ (1) 式中,
${x_i}$ 表示$n$ 个输入图像中的第$i$ 个样本。本文将利用CAE能够重构输入的能力,完成包覆药表面缺陷检测任务,有如下优势:训练过程无须表面有缺陷样本;CAE易于分割形状不规则缺陷;CAE能从复杂背景中准确检测表面缺陷。 -
包覆药外观缺陷检测平台主要由5个部分组成:物料供应装置、喂料装置、检测装置、控制装置和清洁装置,如图1a所示。物料供应装置是待测包覆药临时存储的区域。喂料装置用于将待测包覆药沿着导轨输送至检测装置。当待测包覆药经过相机时,包覆药图像信息被实时采集。该平台采用如图1b所示的三相机协同检测装置,分别从不同方位采集包覆药空间信息,并将采集到的图像传输至控制装置,完成图像分析和数据处理任务。其中,本文提出的包覆药多类型外观缺陷深度检测框架被部署在控制装置中,该装置根据检测结果控制相关气动装置动作,实现缺陷包覆药的自主离群。清洁装置避免灰尘等杂质影响成像质量。本文利用该平台采集到的图像数据完成包覆药多类型外观缺陷深度检测框架的训练及测试。
-
本文提出的基于动态先验特征的包覆药多类型外观缺陷深度检测框架如图2所示。该框架包括两个阶段:形状和尺寸缺陷检测、表面缺陷检测。其中,第一阶段通过多任务学习技术,将基于深度分类器的形状缺陷检测和基于深度分割网络的表面缺陷检测模型进行集成;第二阶段利用卷积自编码器重构输入,并通过对比原始图像和重构图像间的像素值,完成表面缺陷的检出。此外,本文设计了一种基于动态先验特征的空间注意力机制,用于抑制任务不相关特征干扰训练过程,加速模型收敛速度。
-
不同类型缺陷的检测依赖于不同特征,因此需根据不同缺陷特征设计不同检测模型。然而,包覆药不同类型缺陷的检测过程所需特征存在重叠交叉,不同任务间具有较强的相关性。如形状缺陷检测和尺寸缺陷检测均依赖于包覆药外轮廓等特征(任务相关特征中的共有特征),且三者缺陷检测均需聚焦于包覆药,抑制背景噪声干扰(任务无关特征中的共有特征),如图3所示。因此根据不同任务间的强相关属性,通过易于获取的共有特征指导其余任务中的模型学习,对去除冗余特征、避免特征重复提取、加速模型收敛至关重要。
针对上述问题,本文设计了一种基于动态先验特征的空间注意力机制,将深度分割网络训练时形成的过程特征,作为分类器和卷积自编码器训练时的动态先验信息,指导形状和表面缺陷检测模型快速聚焦于包覆药区域,避免耗费过多算力和时间重复提取任务不相关特征,具体如下。
1)深度分割网络可从复杂背景中逐像素分割出包覆药区域。基于此先验信息,本文将深度分割网络在第
$n$ 次迭代后形成的最后一层特征图,作为分类器第$(n + 1)$ 次迭代过程时的动态先验特征,即将第$n$ 次迭代后的最后一层特征经过下采样操作${\rm{downscale}}(f_d^n)$ ,并与第$(n + 1)$ 次迭代时由共享特征层输送至深度分类器的特征$f_c^{n + 1}$ 逐像素相乘,确保图像级别分类器将注意力快速聚集于包覆药区域,加速模型收敛过程,如图2所示。此时,基于动态先验特征修正后的分类器损失函数表达式为:$$ {L}_{分类}=-{\displaystyle \sum _{i=1}^{{k}}[y=i]} \mathrm{log}{p}_{i} $$ (3) $$ {p_i} = p(i|\{ f_c^{n + 1} \otimes {\rm{downscale}}(f_d^n)\} ) $$ (4) 式中,
$k$ 表示分类数量;$[y = i]$ 代表若预测类别$y$ 等于$i$ ,则值为1,否则为0;${p_i}$ 是类别$y$ 被预测为标签$i$ 的概率。2)该动态特征映射为与表面缺陷检测模型输入特征相同尺寸,之后二者逐像素相乘,利用动态先验特征指导CAE快速聚焦于包覆药,抑制背景噪声干扰。此外,本文利用先验特征修正深度卷积自编码器损失函数,其表达式为:
$$ L(x,y) = {\rm{mask}} \cdot \frac{1}{n}\displaystyle\sum\limits_{i = 1}^n {{{\left\| {{x_i} - d(e({x_i}))} \right\|}^2}} $$ (5) 式中,mask代表基于动态先验特征的注意力图。
-
由于形状缺陷和尺寸缺陷均依赖于包覆药轮廓及其内部语义特征,因此两个任务所需特征之间具有强相关性。受文献[17]启发,本文将基于深度分类器的形状缺陷检测和基于深度分割网络的尺寸缺陷检测模型集成,去除不同任务间的冗余特征,如图2所示。具体而言,本文将深度分割网络作为主干网络,并在其自编码器结构后设计额外的深度分类器,保证两个任务共享特征提取网络层。为了实现端到端训练,利用深度分割网络和深度分类器损失函数联合优化,具体表达式为:
$$ {L}_{1}=\lambda {L}_{分割}+\delta (1-\lambda ) {L}_{分类} $$ (6) 式中,
$ {L}_{分割} $ 和$ {L}_{分类} $ 分别代表深度分割网络和深度分类器损失函数,其中$ {L}_{分类} $ 采用修正后的损失函数,如式(3);$\lambda $ 是一个动态均衡因子,用于平衡两个任务的训练过程;$\delta $ 是一个阻止深度分类器主导整个损失函数的超参数。$\lambda $ 可表示为:$$ \lambda = 1 - \frac{n}{T} $$ (7) 式中,n和T分别代表当前迭代的次数和总迭代次数。由于深度分类器是基于图像级别的标签,而深度分割网络是基于像素级别的标签,两个任务在训练过程中将互相干扰。因此,本文设计动态均衡因子
$\lambda $ ,确保集成模型在训练早期学习深度分割特征,而在训练后期学习深度分类特征,促使模型稳定收敛。同时,本文将深度分类器向共享特征网络层传播的梯度停止,避免两个任务训练过程互相干扰。此外,该集成模型引入基于动态先验特征的空间注意力机制,利用深度分割网络过程特征指导深度分类器快速聚焦于包覆药,避免任务无关特征干扰深度分类器收敛。形状缺陷检测可通过深度分类器实现粘连、斜角形状缺陷包覆药检出。尺寸缺陷检测包括两个关键环节:坐标空间转换和尺寸缺陷检测。其中,坐标空间转换是为了确定像素当量,即图像坐标系中像素代表的实际空间距离。本文采用文献[18]提出的标定方法,确定像素当量为0.012 mm。包覆药实际尺寸可通过像素当量和像素数量乘积确定,其中尺寸正常包覆药的上界和下界分别是12 mm和10 mm。尺寸缺陷检测方法包括4个步骤。
1)通过深度分割网络,获得分割掩码。
2)基于分割掩码,得到包覆药像素数量。
3)通过像素当量与像素数量间的乘积,确定包覆药测量尺寸。
4)测量尺寸分别与包覆药上界和下界比较,若当前尺寸处于二者之间,则为正常包覆药,否则为尺寸缺陷包覆药。
-
包覆药只占据图像部分区域,因此表面缺陷检测过程只需关注包覆药区域。基于此,本文提出了一种基于动态先验特征的空间注意力机制,促使CAE模型训练及测试过程均能快速聚焦于包覆药,避免背景噪声等任务无关特征干扰,其具体可表现在3个方面。
1)在训练阶段,将深度分割网络最后一层特征图映射为与卷积自编码器第一层特征图相同尺寸,并将该信息作为先验特征,指导CAE模型将注意力快速聚焦于包覆药。
2)在测试阶段,将深度分割网络生成的分割掩码映射为与表面缺陷检测过程生成的残差图像相同尺寸,之后二者逐像素作积,避免背景噪声等异常像素干扰缺陷检测,如图4所示。
3)将分割掩码作为约束信息,修正MSE损失函数,避免背景等任务无关特征参与到模型训练过程当中,修正后的损失函数如式(4)。
本文提出的卷积自编码器只需表面正常包覆药图像数据就可完成模型训练,无须人工手动标注,其工作原理如下。
1)将分割掩码的外接矩形作为基准,对原始输入图像进行裁剪。
2)将裁剪后的图像作为表面缺陷检测模型的输入,利用CAE的编码器提取低维非线性特征,并通过设计金字塔池化结构[12]和跨层连接机制[19],捕获多尺度特征,细化缺陷边界。
3)基于提取到的多尺度低维特征,CAE的解码器尽可能无差重构出输入图像,并利用修正后的损失函数式(4)训练模型参数。
4)设计基于椭圆的伪缺陷训练策略,提升模型的鲁棒性,即通过控制椭圆形状参数而随机生成不同类型缺陷样式,如长短轴之比为1则为凹坑缺陷;长短轴之比接近0则为裂缝缺陷;此外,本文将输入图像裁剪为若干小尺寸样本进行重构,样本重构均值为重构图像像素。
5)CAE训练过程只依赖于正样本,因此CAE只具备重构表面无缺陷样本的能力,故可通过计算输入图像与重构图像像素差值,获得缺陷信息。
6)本文设计了一种缺陷得分策略,用于量化表面缺陷,其具体表达式为:
$$ {{S}}_i^j = \max (0,\delta (x_i^j - g(x_i^j))) $$ (8) 式中,
$x_i^j - g(x_i^j)$ 表示输入图像与无噪声重构图像逐像素计算差值;$\delta ( \cdot )$ 是阈值函数,即超过设定阈值区域为表面缺陷区域,否则为表面无缺陷区域;$\max (0, \cdot )$ 用于抑制噪声干扰。 -
本文数据集来源于包覆药外观缺陷检测平台实际采集到的图像数据,共包含像素为480 pixel×480 pixel的982张灰度图像。其中,表面缺陷数据有54张,形状缺陷图像253张,尺寸缺陷图像345张。本文将数据按照6:3:1的比例随机划分为训练、测试和验证数据集。此外,为了提高检测模型对光照等外界因子的鲁棒性,本文将训练数据通过增低亮度、变化对比度和锐度、增加噪声等方式,将训练数据集扩充为原来的5倍。
本文使用配置有Intel Core i7-9700K CPU和NVIDIA RTX Titan GPU的实验环境,用于模型的训练和测试。同时,借助PyTorch 1.3和OpenCV 3.4等视觉函数库,完成多缺陷检测模型的前处理及后处理操作。将训练时最小批次设置为32;采用动量为0.9、权重衰减系数为2×10−3的随机梯度下降法优化神经网络模型;最大迭代次数为1000;初始学习率为0.001。
-
本文利用精确率、召回率、准确率和F1分数等指标对多缺陷深度检测框架的性能进行评估。其中,深度分割网络的分割效果利用IoU[11]指标进行评估。上述指标可表示为:
$$ 精确率=\frac{{\rm{TP}}}{{\rm{TP}}+{\rm{FP}}} $$ (9) $$ 召回率=\frac{{\rm{TP}}}{{\rm{TP}}+{\rm{FN}}} $$ (10) $$ 准确率=\frac{{\rm{TP}}+{\rm{TN}}}{{\rm{TP}}+{\rm{TN}}+{\rm{FP}}+{\rm{FN}}} $$ (11) $$ \text{F1}分数=\frac{2\times 精确率\times 召回率}{精确率+召回率} $$ (12) $$ {\text{IoU}} = \frac{{{\rm{DR}} \cap {\rm{GT}}}}{{{\rm{DR}} \cup {\rm{GT}}}} $$ (13) 式中,TP和FP分别表示有缺陷和无缺陷的样本被预测为有缺陷样本的数量;TN和FN分别表示无缺陷和有缺陷的样本分别被预测为无缺陷的样本;精确率用于描述检测结果中被正确预测的比例;召回率代表有缺陷样本被检测到的数量;准确率表示缺陷检测结果的总效果;F1分数作为精确率和召回率的调和平均数,能够缓解数据分布不均衡对检测结果的影响。DR和GT分别表示包覆药的预测和标注边框。式(12)表示预测框和标注框之间的交并比,用于衡量两个集合的重叠程度,且该交并比越接近1表明预测效果越好。除了上述评价指标之外,本文利用参数数量和检测速度指标评估多缺陷检测模型的计算复杂度。
-
由于形状缺陷检测和尺寸缺陷检测均依赖于包覆药轮廓等特征,因此本文也验证了将尺寸缺陷检测也视为分类任务,即利用深度分类器完成尺寸缺陷包覆药检出的效果。图5所示的混淆矩阵表示包覆药形状缺陷检测结果,其对角线上的值代表每个种类的召回率。可以观察到,深度分类器除了在过长和过短缺陷上,均表现出较好的检测结果。具体而言,当过长和过短缺陷被视为分类任务时,部分样本将出现误分类现象,上述两种缺陷的召回率分别是76.92%和83.12%。这是由于CNNs在下采样过程中,损失了图像尺寸精度信息,导致尺寸缺陷难以被视为分类任务。
由于深度分割网络的分割精度直接影响着尺寸缺陷检测的准确率,因此本文对目前几种主流的深度分割网络分割性能进行测试和选型,如FCN[20]、U-Net[21]、DeepLabv3[22]和DeepLabv3+[11]。表1表明DeepLabv3+的性能明显优于其余几种模型,被选为本文尺寸缺陷检测的主干网络。此外,本文对形状和尺寸缺陷检测集成模型的性能进行评估。如表2所示,集成模型在各项指标上均明显优于单独模型,表明深度分类器和深度分割网络在训练过程中互相受益,且能够有效去除不同任务间的冗余特征。
表 1 主流的深度分割检测头分割结果对比
方法 精确率/% 召回率/% 准确率/% IOU/% 参数量/K 速度/fps FCN 97.05 96.91 97.89 95.95 9210 16.99 U-Net 93.66 97.64 97.76 93.95 17267 14.77 DeepLabv3 97.59 97.75 98.86 96.36 5109 24.64 DeepLabv3+ 99.14 98.39 99.00 98.08 5221 24.01 表 2 单独模型和集成模型检测结果对比
检测模型 检测网络 精确率/% 召回率/% 准确率/% IOU/% 参数量/K 速度/fps 单独模型 深度分类器 99.90 94.39 98.30 — 464 28.78 深度分割网络 99.14 98.39 99.00 98.08 5221 24.01 集成模型 深度分类器 99.90 98.13 99.43 — 5453 23.28 深度分割网络 99.16 99.05 99.91 98.19 -
将提出的表面缺陷检测模型与其余两种基于自编码器的表面缺陷检测模型性能进行比较。需要特别注意的是:3种表面缺陷检测模型只需要表面无缺陷样本就可完成参数训练。此外,87张表面无缺陷样本和54张表面有缺陷样本被用于测试表面缺陷检测模型的性能。
1)降噪自编码器 (denoising autoencoder, dAE) [23]:随机污染输入图像,并基于噪声样本训练模型,确保模型具有强鲁棒性。
2)变分自编码器 (variational autoencoder, vAE) [24]:该自编码器作为一种推断生成式网络结构,利用概率形式对潜在空间进行描述。
为了公平比较不同模型的检测性能,上述3种表面缺陷检测模型均设定了相同的超参数。如表3所示,本文模型的F1分数达到97.30%,检测结果明显优于降噪自编码器和变分自编码。虽然本文提出模型的检测速度略低于其余两种模型,但该模型的参数量远低于其余两种模型,更易被部署于边缘设备端。此外,表面缺陷检测模型检测速度低于其余模型的主要原因是:图像在前处理和后处理过程中损耗了额外的时间。
表 3 本文模型与其余两种表面缺陷检测结果对比
方法 TP FP FN F1分数/% 参数/K 速度/fps DAE 47 12 7 83.19 854 37.27 VAE 49 9 5 87.50 12935 33.51 本文方法 54 3 0 97.30 527 28.96 通过消融实验,对本文所提各种策略进行评估。如表4所示,重叠训练策略对表面缺陷检测结果影响最大,F1分数直接从65.85%提升至97.30%。此外,跨层连接机制、金字塔池化结构、基于椭圆伪缺陷训练策略、空间注意力机制导致F1分数分别提升25.76%、19.04%、16.22%和11.06%。实验结果表明:本文所提各种策略均能有效提高表面缺陷检测性能。表面缺陷检测结果如图6所示。不难发现,缺陷区域的像素明显高于无缺陷区域的像素。当缺陷得分高于阈值时,则认为当前区域存在表面缺陷,否则为表面无缺陷区域。图6a表示包覆药表面无缺陷,图6b和图6c分别表示包覆药表面存在凹坑和裂痕缺陷。
表 4 表面缺陷检测消融实验对比
策略 TP FP FN F1分数/% 无重叠训练 54 56 0 65.85 无跨层连接 54 43 0 71.52 无金字塔池化 54 30 0 78.26 无椭圆缺陷 45 12 9 81.08 无注意力机制 47 8 7 86.24 本文方法 54 3 0 97.30 -
本节将评估多缺陷深度检测框架整体性能,测试结果如表5所示。其中,形状缺陷、尺寸缺陷和表面缺陷的检测准确率分别达到99.43%、95.90%、97.87%,满足实际生产需求。而尺寸缺陷检测性能略低于其余两种类型缺陷,成为进一步提升包覆药整体检测性能的关键环节。
表 5 多缺陷检测结果
% 缺陷类型 精确率 召回率 准确率 形状缺陷 99.90 98.13 99.43 尺寸缺陷 96.01 95.07 95.90 表面缺陷 94.73 100.00 97.87
Dynamic Prior Features-Based Deep Learning Framework for Multidefect Detection of Coated Propellants
-
摘要: 包覆药通常被嵌入固体火箭或导弹发动机的动力系统中,其外观质量直接影响该类动力系统的性能表现。针对包覆药外观存在的形状、尺寸和表面缺陷,提出了一种基于动态先验特征的包覆药多类型外观缺陷深度检测框架,包括:1)将基于深度分类器的形状缺陷检测和基于深度分割网络的尺寸缺陷检测模型集成,去除不同任务间的冗余特征,同时将深度分割网络当前迭代形成的过程特征作为动态先验特征,作用于深度分类器参数下一次迭代更新,加快模型收敛速度;2)将深度分割网络产生的过程特征映射至基于卷积自编码器的表面缺陷检测模型中,指导检测模型快速聚焦于包覆药,抑制任务无关特征重复提取。实验结果表明,该方法在模型功耗、检测效率及检测准确率等方面具有较好的表现。Abstract: Coated propellants (CPs) are extensively used in the dynamical systems of rockets and missiles. The appearance quality of the CPs has significant impact on the performance of the systems. To this end, a dynamic prior features-based deep learning framework for multidefect detection of CPs, such as shape, size, and surface defects, is put forth in this article: 1) An integrated deep model for deep classifier (DC)-based shape defect and deep segmentation network (DSN)-based size defect detection is introduced, which can remove redundant features among different tasks. Particularly, the features generated by the current iteration of the DSN, as dynamic prior features, act on the next iteration of the DC to accelerate the convergence rate, and 2) the dynamic features are also mapped to the convolutional autoencoder-based surface defect detection, which can guide the model to quickly focus on the CPs, while suppressing the repeated feature extraction of task-independent features. Experimental results on an image dataset from a real-world manufacturing line show that the proposed framework has the superiority in terms of the power consumption, detection efficiency, and detection accuracy.
-
Key words:
- coated propellant /
- deep learning /
- dynamic prior features /
- multidefect detection /
- task relevance
-
表 1 主流的深度分割检测头分割结果对比
方法 精确率/% 召回率/% 准确率/% IOU/% 参数量/K 速度/fps FCN 97.05 96.91 97.89 95.95 9210 16.99 U-Net 93.66 97.64 97.76 93.95 17267 14.77 DeepLabv3 97.59 97.75 98.86 96.36 5109 24.64 DeepLabv3+ 99.14 98.39 99.00 98.08 5221 24.01 表 2 单独模型和集成模型检测结果对比
检测模型 检测网络 精确率/% 召回率/% 准确率/% IOU/% 参数量/K 速度/fps 单独模型 深度分类器 99.90 94.39 98.30 — 464 28.78 深度分割网络 99.14 98.39 99.00 98.08 5221 24.01 集成模型 深度分类器 99.90 98.13 99.43 — 5453 23.28 深度分割网络 99.16 99.05 99.91 98.19 表 3 本文模型与其余两种表面缺陷检测结果对比
方法 TP FP FN F1分数/% 参数/K 速度/fps DAE 47 12 7 83.19 854 37.27 VAE 49 9 5 87.50 12935 33.51 本文方法 54 3 0 97.30 527 28.96 表 4 表面缺陷检测消融实验对比
策略 TP FP FN F1分数/% 无重叠训练 54 56 0 65.85 无跨层连接 54 43 0 71.52 无金字塔池化 54 30 0 78.26 无椭圆缺陷 45 12 9 81.08 无注意力机制 47 8 7 86.24 本文方法 54 3 0 97.30 表 5 多缺陷检测结果
% 缺陷类型 精确率 召回率 准确率 形状缺陷 99.90 98.13 99.43 尺寸缺陷 96.01 95.07 95.90 表面缺陷 94.73 100.00 97.87 -
[1] SATHIYANATHAN K, LEE R, CHESSER H, et al. Solid propellant microthruster design for nanosatellite applications[J]. Journal of Propulsion and Power, 2011, 27(6), 1288-1294. [2] 潘浩东, 王瑞, 舒慧明, 等. 一体化包覆药柱缠绕应力的数值计算[J]. 固体火箭技术, 2021, 44(4): 498-505. PAN H D, WANG R, SHU H M, et al. Numerical calculation of winding stress of an integrated coated propellant grain[J]. Journal of Solid Rocket Technology, 2021, 44(4): 498-505. [3] DARA S, TUMMA P. Feature extraction by using deep learning: A survey[C]//The 2018 second International Conference on Electronics, Communication and Aerospace Technology(ICECA). Coimbatore: IEEE, 2018, 1795-1801. [4] CZIMMERMANN T, CIUTI G, MILAZZO M, et al. Visual-Based defect detection and classification approaches for industrial applications—A survey[J]. Sensors, 2020, 20(5): 1459. doi: 10.3390/s20051459 [5] CHEN Z S, ZHANG C H, ZUO L, et al. An adaptive deep learning framework for fast recognition of integrated circuit markings[J]. IEEE Transactions on Industrial Informatics, 2022, 18(4): 2486-2496. doi: 10.1109/TII.2021.3093388 [6] LING H, JACOBS D W. Shape classification using the inner-distance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(2): 286-299. doi: 10.1109/TPAMI.2007.41 [7] WANG X, FENG B, BAI X, et al. Bag of contour fragments for robust shape classification[J]. Pattern Recognition, 2014, 47(6): 2116-2125. doi: 10.1016/j.patcog.2013.12.008 [8] YUAN W, CHIN K S, HUA M, et al. Shape classification of wear particles by image boundary analysis using machine learning algorithms[J]. Mechanical Systems and Signal Processing, 2016, 72: 346-358. [9] ZHANG H, TANG Z, XIE Y, et al. A watershed segmentation algorithm based on an optimal marker for bubble size measurement[J]. Measurement, 2019, 138: 182-193. doi: 10.1016/j.measurement.2019.02.005 [10] PENG R, LIU J, FU X, et al. Application of machine vision method in tool wear monitoring[J]. The International Journal of Advanced Manufacturing Technology, 2021, 116(3): 1357-1372. [11] CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//European Conference on Computer Vision(ECCV). Munich: Springer, 2018, 801-818. [12] DONG H, SONG K, HE Y, et al. PGA-Net: Pyramid feature fusion and global context attention network for automated surface defect detection[J]. IEEE Transactions on Industrial Informatics, 2019, 16(12): 7448-7458. [13] TABERNIK D, ŠELA S, SKVARČ J, et al. Segmentation-based deep-learning approach for surface-defect detection[J]. Journal of Intelligent Manufacturing, 2020, 31(3): 759-776. doi: 10.1007/s10845-019-01476-x [14] CHANDOLA V, BANERJEE A, KUMAR V. Anomaly detection: A survey[J]. ACM Computing Surveys, 2009, 41(3): 1-58. [15] CHEN M, SHI X, ZHANG Y, et al. Deep feature learning for medical image analysis with convolutional autoencoder neural network[J]. IEEE Transactions on Big Data, 2017, 7(4): 750-758. [16] RAWAT W, WANG Z. Deep convolutional neural networks for image classification: A comprehensive review[J]. Neural Computation, 2017, 29(9): 2352-2449. doi: 10.1162/neco_a_00990 [17] BOŽIČ J, TABERNIK D, SKOČAJ D. Mixed supervision for surface-defect detection: From weakly to fully supervised learning[J]. Computers in Industry, 2021, 129: 103459. doi: 10.1016/j.compind.2021.103459 [18] STURM P, RAMALINGAM S. A generic concept for camera calibration[C]//European Conference on Computer Vision. Berlin, Heidelberg: Springer, 2004, 1-13. [19] MAO X, SHEN C, YANG Y B. Image restoration using very deep convolutional encoder-decoder networks with symmetric skip connections[C]//Advances in Neural Information Processing Systems, Bancelona: IEEE, 2016, 2802-2810. [20] SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 39(4): 640-651. [21] RONNEBERGER O, FISCHER P, BROX T. U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015, 234-24. [22] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[EB/OL]. [2022-09-12]. https://arXiv.org/pdf/1706.05587.pdf. [23] KANG G, GAO S, YU L, et al. Deep architecture for high-speed railway insulator surface defect detection: Denoising autoencoder with multitask learning[J]. IEEE Transactions on Instrumentation and Measurement, 2018, 68(8): 2679-2690. [24] WANG S, ZHONG Z, ZHAO Y, et al. A variational autoencoder enhanced deep learning model for wafer defect imbalanced classification[J]. IEEE Transactions on Components, Packaging and Manufacturing Technology, 2021, 11(12): 2055-2060. doi: 10.1109/TCPMT.2021.3126083