APP下载

基于AlexNet的焊缝缺陷分类方法

2023-09-25金海昆程晓颖廖晓平

计算机时代 2023年9期
关键词:卷积神经网络

金海昆 程晓颖 廖晓平

摘  要: X射线检测作为一种实用的无损检测(NDT)方法,在压力容器的焊缝缺陷检测中得到了广泛的应用。基于X射线图像的自动缺陷识别技术也随着人工智能(AI)的发展取得了飞速发展。本文将焊缝缺陷裁剪成像素小块作为神经网络的输入,并在AlexNet的基础上通过添加BN层改进了原网络,而后又选取了最优α值的LeakyReLU层代替了原有的ReLU层,使最终的AlexNet-BN-L模型取得了高达88.80%的5折交叉验证平均准确率。

关键词: 射线无损检测; 焊缝缺陷分类; 卷积神经网络; 交叉验证

中图分类号:TP181          文献标识码:A     文章编号:1006-8228(2023)09-151-04

Weld defect classification method based on AlexNet

Jin Haikun1, Cheng Xiaoying1, Liao Xiaoping2

(1. School of Mechanical Engineering, Zhejiang Sci-tech University, Hangzhou, Zhejiang 310018, China; 2. Zhejiang Deli Equipment CO, Ltd)

Abstract: As a practical non-destructive testing (NDT) method, X-ray testing has been widely applied in the detection of weld defects in pressure vessels. Automatic weld defect recognition technology based on X-ray film has also made great progress with the development of AI. In this research, the weld defect is cut into small pixel patches as the input of neural network. The original AlexNet is improved by adding BN layer, and the LeakyReLU layer with optimal α value replaces the original ReLU layer. The final AlexNet-BN-L model achieves the highest 5-fold cross validation average accuracy rate of 88.80%.

Key words: radiographic non-destructive testing; classification of weld defects; convolutional neural network; cross validation

0 引言

焊接技术广泛应用于机械、机械电子、化学化工、机器人和航空航天等领域,焊接技术对现代化工压力容器生产有着极其重要的作用。但是在焊接过程中,焊接处难免会产生缺陷。此时,检测焊缝的缺陷显得尤为重要。压力容器焊缝的缺陷检测主要分为渗透检测、磁粉检测、超声波检测和射线检测四种方法[1]。其中射线检测因为可以通过射线将焊缝内外状况映射在X光胶片上,使得射线检测成为所有焊缝检测方式中最重要的检测。而后要靠专业的评片人员目视拍摄所得的X光底片对焊缝质量做出评估。由于人的评片过程是主观的,而且人眼由于疲劳等问题很可能漏评、错评焊缝缺陷,因而不能充分排除安全隐患。所以开发一个自动识别焊缝缺陷的算法非常重要。

随着图像识别、机器学习和深度学习的发展,卷积神经网络(CNN)被应用于图像分类领域,获得了很大成功,并且掀起了深度学习的热潮。刘涵和郭润元采用一种改进的聚类算法,将焊缝缺陷像素块提取出来作为CNN的输入[2]。侯文慧提出了一种深度卷积神经网络(DCNN)模型,更侧重于网络深度和不同的重采样方法对不平衡焊缝缺陷数据集的影响[3]。之后,姜洪泉根据焊缝缺陷图像的特征改进了卷积神经网络的池化层,提出了一种利用ReliefF算法增强CNN特征选择能力的方法[4]。

本文在之前研究的基础上先将焊缝裁剪为像素小块作为神经网络训练的数据集,然后通过两种方法来改进传统的AlexNet。首先是在AlexNet卷积层和ReLU激活层中添加批量归一化(BN)层,其次将ReLU激活层改进为LeakyReLU层,最终采取5折交叉验证验证了改进模型的有效性,同时选取了LeakyReLU层的最优α值。

1 焊缝缺陷及其数据集

焊缝缺陷按照行业标准一般分为五类,分别是为裂纹、未熔合、未焊透、条形缺陷和圆形缺陷。其中裂纹类缺陷包含裂纹、未熔合和未焊透,这是不允许存在的致命缺陷。而非裂纹类则是依据缺陷长宽比将气孔、夹渣和夹钨等缺陷进行分类。长宽比大于等于3的判定为条形缺陷,小于3的判定为圆形缺陷,此类条形和圆形缺陷需要评片工作人员对焊缝质量进行评级,而后确认焊缝是否合格。

我國无损检测行业为了方便对焊缝进行评级,按照其对工件的危害程度将裂纹、未熔合、未焊透、条形缺陷和圆形缺陷这五类分别用字母A、B、C、D、E代指,本文也将沿用分类形式,如图1,其中N代表无缺陷。

本文的数据集源自浙江德力装备有限公司的X射线胶片和德国的公共数据集GDXray[5],经过裁剪后,每张数据都是32[×]32像素的三通道RGB图。在此基础上,考虑到未熔合和未焊透全都属于裂纹类缺陷,并且其形状相似,我们将其统一分为BC类缺陷。条形缺陷和圆形缺陷都为非裂纹缺陷,某种意义上是允许存在的,况且其形状也较为相近,我们也将其统一分为DE类。最终数据集包含A、BC、DE和N类各480张。

2 AlexNet神经网络概况

2.1 网络主要构成

⑴ 卷积层

卷积层(Conv)是卷积神经网络必不可少的组成部分,其输入[x]与一些可训练的多维卷积核[fk]做卷积,然后将所得结果与偏差[bk]相加。假设有[K]个卷积核,则该层的第[k]个输出可以用如下等式表示:

[yk(i,j)=c=1Cfck*xc(i,j)+bk] ⑴

其中,大写字母C表示输入的总通道数,[xc(i,j)]表示输入的第c个通道中的第[i]行和第[j]列中的区域。

⑵ 激活层

激活层又称修正线性单元,其作用在于增加了网络的可学习度,让网络内部结构变得多元化。AlexNet中用的所有激活函数都是ReLU函数,其公式如下:

[yk(i,j)=xk(i,j),  xk(i,j)≥00,  xk(i,j)<0] ⑵

函数形状如图2。

⑶ 池化层

池化层用来减小特征矩阵的大小,如果不采取池化,在训练过程中就会出现学习参数过大的问题。本文选取的池化都是最大值池化(MaxPooing),公式如下:

[ykI,J=max (xk(I+i-1,J+j-1))]  ⑶

其中,I和J表示输出后的第[i]行和第[j]列。

⑷ 線性层

线性层又称全连接层(FC),主要目的就是将之前卷积留下的多维数组铺平成一维数据,起到一个降低数据维度的作用。

2.2 AlexNet架构

AlexNet首次成功使用ReLU作为CNN的激活函数,并将曾经广泛使用的平均池化改为最大值池化[6]。考虑到AlexNet原文网络的输入为224[×]224[×]3的三通道图片,而本文使用的数据集形状却为32[×]32[×]3,所以本文将原文的些许参数做了修改,但是整体架构依旧是AlexNet的网络架构,如图3。

网络共有11层,其中MaxPooling层核大小都是2,步长也都是2。焊缝缺陷数据首先会进入一个卷积层(16个核大小为5的卷积核,步长是1,padding值是2),而后经过ReLU激活函数后通过最大池化层尺寸减半。之后再通过一个卷积层(32个核大小为5的卷积核,步长是1,padding值是2)、ReLU激活函数层和池化层。接下来以此类推,通过三个卷积层(卷积核大小都为3,步长和padding都为1,卷积核个数分别是48、48、64)后进入池化层尺寸减半;最后通过三层FC线性层,最后完成缺陷4分类。

3 AlexNet神经网络改进方法

本文对AlexNet的改进方法主要分为两步,如图4。第一步是在卷积层和ReLU层之间加入批量归一化BN层,网络简称AlexNet-BN。第二步则是在此基础上将网络的ReLU层改进为LeakyReLU层,网络简称AlexNet-BN-L。

⑴ 批量归一化层

批量归一化(BN)层作用在于加快网络的训练和防止过拟合。BN层在归一化输入的每个通道后对其进行移动和缩放,加强了卷积的特征提取,具体公式如下:

[yk(i,j)=γkxk(i,j)-μBVarσ2B+ε+βk]  ⑷

其中,[μB]、[σ2B]分别表示此批量上的均值和方差,[γk]和[βk]表示训练期间的缩放和位移系数。

⑵ LeakyReLU层

LeakyReLU层相比于ReLU层,其输入[xk(i,j)]在小于0时,并不恒等于0。公式如下,其中α表示函数斜率。

[yk(i,j)=xk(i,j),  xk(i,j)≥0αxk(i,j),xk(i,j)<0] ⑸

上文说的ReLU激活函数将小于0的部分丢弃的主要原因是想让训练出来的网络不是简单的[Wx+b]形式,而是希望得到更复杂的非线性网络结构,并且ReLU激活函数可以有效的缓解模型在训练过程中梯度消失的问题。而LeakyReLU激活函数在保留了ReLU激活函数优点的同时,也适当保留了[xk(i,j)]在小于0时的参数,可以在训练过程中学习到更多的参数,函数形状如图5所示。

4 模型性能指标和实验

4.1 模型性能指标

准确率Acc是指分类正确的焊缝缺陷数量占总缺陷数量的比值。查准率P是指正确的预测为某类焊缝缺陷的样本数除以预测为这一类缺陷的样本总数。查全率R是指正确的预测为某类缺陷数除以这一类的实际缺陷数量。而F1则是综合了查准率P和查全率R,公式如下:

[F1=2×P×RP+R]  ⑹

4.2 实验

为了评估AlexNet和AlexNet-BN模型的分类性能,同时确定AlexNet-BN-L模型中LeakyReLU激活函数斜率α的较优值,我们采用的方法为五折交叉验证。我们将数据集平均分成五折,其中四折作为训练集,一折用来作为测试集。其中训练集经过左右翻转和上下翻转进行数据增强,共4608张,测试集没有进行数据增强,共384张。如此循环五次得到了五次测试结果。

⑴ AlexNet与AlexNet-BN分类性能比较

我们首先比较AlexNet与AlexNet-BN两个模型,其五折交叉验证结果如表1。其中[P=i=1nPin],[R=i=1nRin]和[F1=i=1nF1in](n=4)分别表示A、BC、DE和N类4类样本的综合平均查准率,综合平均查全率和综合平均F1值。

由表1可知,AlexNet-BN在焊缝缺陷分类这一方面的准确率和平均F1值在每一折训练中都比传统的AlexNet和高,五折交叉验证平均准确率相比之下高出3.09%,五折交叉验证平均F1值高出3.13%。由此可见,添加了BN层的AlexNet-BN网络性能得到了提升。

⑵ AlexNet-BN-L模型参数α的确定

在AlexNet-BN模型的基础上,我们将其ReLU层改进成LeakyReLU层获得了AlexNet-BN-L模型,同时为了选出不同α下较优的模型,我们选取了四个不同的α值进行比较,分別是α=0.02,α=0.06,α=0.10和α=0.14,如图6。

当α取值为0.1时,AlexNet-BN-L模型取得了最高的五折交叉验证平均准确率和平均F1值,分别为88.80%和88.76%,相比于AlexNet-BN模型,其提高了1.13%和1.06%,取得了所有模型的最好识别率。

5 结论

在焊缝缺陷分类问题中,我们首先将焊缝缺陷裁剪成小块作为神经网络的输入,其次在传统的AlexNet基础上通过添加BN层改进了原网络,而后又选取了最优α值的LeakyReLU层代替了原有的ReLU层,使最终的AlexNet-BN-L模型取得了最高的五折交叉验证平均准确率和平均F1值,分别为88.80%和88.76%,相比于AlexNet分别提高了4.22%和4.19%。

AlexNet-BN-L模型取得好的效果归结于两点,第一点是BN层在防止过拟合的同时还加强了卷积的特征提取,第二点是LeakyReLU层在保持网络非线性的同时适当地保留了ReLU层未获取到的特征信息。这在焊缝缺陷分类识别的自动化进程中提供了一个较为不错的思路。

在以后的工作中,我们将把工作重心放在焊缝缺陷数据集的增强方面,以便获得更大量的数据集,从而获得更高的准确率。

参考文献(References):

[1] 沈功田,张万岭.压力容器无损检测技术综述[J]. 无损检测,

2004,26(1):37-40.

[2] 刘涵,郭润元.基于X射线图像和卷积神经网络的石油钢管

焊缝缺陷检测与识别[J].仪器仪表学报,2018,39(4):10.

[3] HOU W, WEI Y, JIN Y, et al. Deep features based on a

DCNN model for classifying imbalanced weld flaw types[J].Measurement,2018,131.

[4] JIANG H, HU Q, ZHI Z, et al. Convolution neural network

model with improved pooling strategy and feature selection for weld defect recognition[J]. Welding in the World, Le Soudage Dans Le Monde,2020,65(1).

[5] MERY D, RIFFO V, ZSCHERPEL U, et al. GDXray: The

Database of X-ray Images for Nondestructive Testing[J]. Journal of Nondestructive Evaluation,2015,34(4).

[6] LONG J, SHELHAMER E, DARRELL T. Fully Convolu-

tional Networks for Semantic Segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(4):640-51.

猜你喜欢

卷积神经网络
基于深度神经网络的微表情识别
卷积神经网络中减少训练样本时间方法研究
卷积神经网络语言模型研究
基于卷积神经网络的车辆检索方法研究
基于卷积神经网络温室智能大棚监控系统的研究
基于深度卷积神经网络的物体识别算法
深度学习算法应用于岩石图像处理的可行性研究
基于深度卷积网络的人脸年龄分析算法与实现
深度学习技术下的中文微博情感的分析与研究
基于卷积神经网络的树叶识别的算法的研究